La gestión efectiva de los stakeholders es un aspecto crucial en cualquier proyecto, ya que las partes interesadas desempeñan un papel fundamental en su éxito. Inspirados por el artículo ‘Principles of Stakeholder Management‘ de Max Clarkson, Donaldson,...
Muchas presentaciones son del tipo “yo soy”. Pero un Project manager tiene que empezar diciendo qué hace para impactar en el mundo que le rodea, dividiendo mi actividad en tres ejes: Dirección de Proyectos en distintos sectores, desde Arquitectura y Real...
Puedes leer el artículo en español: «La mano de Heidegger y la impresora 3D», publicado en Stakeholders.news
Foto de Andrea G en Unsplash
The Philosophy of Architecture in the Digital Age
We are immersed in an era of computerization where, as...
Cuando dos referentes de talla mundial coinciden en los mismos “dolores” es momento de escuchar con atención —antes de que el algoritmo sea el que marque todo nuestro quehacer.
El Club de la IA es un podcast conducido por Jon Hernández, fotógrafo y divulgador tecnológico español que invita cada semana a personas destacadas a nivel mundial en materias vinculadas a la Inteligencia Artificial para conversar en un ambiente relejando y dejando espacio para que sus invitados se explayen en los temas.
Quiero compartir con ustedes dos episodios que me llamaron la atención, con dos referentes a nivel hispanoparlantes, su mirada incisiva y crítica buscan desentrañar los conceptos y desafíos que tiene la IA más allá del actual hype en torno a este tema.
Creo que es bueno, tomar un respiro y analizar con una mirada crítica estos desarrollos, y podamos identificar sus beneficios, que son múltiples por cierto, pero teniendo claro sus limitaciones, es bueno tmoar cierta distancia de los vendedores de aceite de serpiente.
Este avance tan rápido no nos da tiempo para detenernos y pensar en las consecuencias.
Ricardo Baeza-Yates
Ambos episodios giran en torno a la misma pregunta:
¿Cuáles son los peligros reales de la IA?
Las respuestas de ambos convergen, lo que obliga a mirar con espíritu crítico con lo que esta ocurriendo en torno a la IA y sobretodo la IA Generativa.
Hype, humo y espejitos de colores: Tanto Ramón López de Mántaras como Ricardo Baeza-Yates arrancan sus intervenciones con la misma alerta: la industria vende IA como aceite de serpiente. Promesas de AGI inminente, robots con destellos de genialidad y curvas de productividad “milenaria” ocultan métricas infladas. El riesgo no es la super-IA que nos esclavizará, sino la sobredosis de marketing que distorsiona políticas públicas, reorienta recursos escasos y nubla la conversación ciudadana.
¿Inteligencia? Todavía no, gracias: Ambos ponen en duda en la idea de que los grandes modelos de lenguaje piensen. Para Mántaras, son simples autocompletadores estadísticos; para Baeza-Yates enfrentan un techo de datos que los llevará a reciclar sus propios errores.
Caja negra: Los dos rechazan el uso de modelos opacos en dominios críticos: salud, justicia, finanzas, educación. Sin explicabilidad no hay trazabilidad; sin trazabilidad no hay garantías de derechos. Transparencia mínima, auditorías independientes y exigencia de razones comprensibles son la tríada que proponen para no transformarnos en rehenes de los algoritmos.
Concentración de poder: el verdadero monstruo: Ni Terminator, ni HAL 9000, el peligro real es que un puñado de big tech controle datos, talento y cómputo. Esa asimetría puede convertir la IA en infraestructura propietaria, capaz de imponer estándar, cultura y precio. Monopolio software + monopolio energético = cóctel perfecto para el “feudalismo digital”.
Regular el daño, no la ciencia: Lejos de gritar ¡prohíban la IA!, los investigadores piden regulación. La regulación debe estar basada en el daño: sesgos, discriminación, fraudes, impacto ambiental. Nada de leyes tecnocéntricas que envejecen antes de publicarse; necesitamos normas sectoriales, dinámicas y con dientes.
Sesgos que dan vueltas (y vuelven): Datos históricos → modelo entrenado → decisiones sesgadas → comportamiento de usuario → nuevos datos… y vuelta a empezar. Ambos denuncian este círculo vicioso y subrayan que los sesgos no se “parchean” con un filtro cosmético: requieren intervención humana, datasets diversos y corrección continua.
Huella de carbón: Escalar de GPT-3 a GPT-4 y más allá (acaba de salir el GPT-5) no solo cuesta millones de dólares: cuesta megavatios, agua de refrigeración y, en el sur global, proyectos de energía que podrían destinarse a prioridades básicas. Mántaras y Baeza-Yates ponen el clima en la ecuación tecnológica. Entrenar un modelo ya no es un acto neutro; es una decisión política y ambiental.
El reto es urgente y colectivo. La ventana para influir en el diseño institucional de la inteligencia artificial se está cerrando tan rápido como los ciclos de despliegue de las big tech. Si no actuamos hoy, mañana tendremos que conformarnos con los términos y condiciones que otros escriban.