La IA y sus grandes desafíos de gobernanza

Grandes desafíos en materias de gobernanza de IA, muchas más preguntas que respuestas

Muchos de nuestros países están tratando de entenderlos impactos de la IA, algunos intentando regularla, hace unos días me topé con un listado de intereses documentos que muestran diferentes aspectos de este impacto.

Algunas de las áreas que abarcan estos documentos on:

  • La relación entre lenguaje y la terminología utilizada en el campo de la IA.
  • Interacciones entre la IA y otras disciplinas científicas, particularmente las ciencias cognitivas y del cerebro.
  • Riesgos o problemas potenciales asociados con el desarrollo y uso de la IA.
  • Implicaciones éticas y sociales del desarrollo de la IA.
  • Impacto de la IA en nuestras democracias y en los procesos políticos
  • Como se ven afectados algunos de nuestros derechos: protección de la vida privada, información y derechos de autor

El listado que me llegó desde la newsletter de Luiza Jarovsky , en sus publicaciones comparte mucha información útil, (se los recomiendo), Luiza recopiló una serie de artículos académicos y de difusión en materias asociadas a la Gobernanza de la IA, los autores son prestigiados investigadores de varias universidades y todos muy recientes.

Estas publicaciones intentan responder preguntas tan importantes como:

  • ¿Cómo se verán afectados nuestros procesos democráticos?
  • ¿Es realmente inteligente la IA?
  • ¿Cuán necesario es regularla?
  • ¿Mejorará nuestra calidad de vida?
  • ¿Cómo se ven afectados algunos derechos entro ellos, privacidad, de autor y otros?

Un disclaimer, las imágenes utilizado en este artículo corresponden al resultado de la IA Generativa, para lo cual lo que utilice como prompt el título del artículo en su idioma original (ingles), llama la atención el sesgo hacia imágenes antropomórficas. Además use otra herramienta de IA Generativa para la primera pasada del resumen de los artículos, debo decir que me he leido casi todos estos artículos y el resultado del resumen es bastante bueno, hay que meterle mano igual, se les sale más de alguna alucionación.

IA y riesgo epistémico para la democracia: ¿Una próxima crisis del conocimiento público?

cabeza de robot que sostiene una balanza sobre un libro

El documento de , John P. Wihbey, Northeastern University, analiza los riesgos epistémicos que la inteligencia artificial (IA) plantea para la democracia y el conocimiento público. Argumenta que a medida que la IA asume un papel más importante en mediar la información y el conocimiento, existe el peligro de que se produzcan bucles de retroalimentación donde los modelos de IA, entrenados con datos del pasado, influyan cada vez más en lo que las personas consideran verdadero e importante, creando una especie de “anacronismo epistémico”. Esto podría socavar la autonomía humana y la capacidad de los ciudadanos para formar preferencias y conocimientos de manera orgánica, que son fundamentales para el funcionamiento de la democracia deliberativa.

El autor examina tres áreas de riesgo: el periodismo asistido por IA, la moderación de contenidos en redes sociales mediante chatbots, y el uso de IA para simular encuestas de opinión pública. En cada caso, advierte sobre los peligros de que la IA reemplace o distorsione importantes interacciones humano-humano y procesos de deliberación. Para mitigar estos riesgos, el documento aboga por inculcar una “modestia epistémica” en los modelos de IA, enfatizando sus limitaciones inherentes, y por preservar espacios para los recursos cognitivos humanos que no estén sustancialmente mediados por la IA. Concluye que lograr una alineación ética de la IA con los valores democráticos requerirá no solo innovaciones técnicas, sino también un cuidadoso diseño de normas sociales y marcos éticos.

Descargar artículo aquí

Resolviendo la crisis del Derecho de Autor en la IA Generativa

cabeza de un robot humanoide que está al lado de una persona

El documento de Frank Pasquale (Cornell Law School) y Haochen Sun (University of Hong Kong), propone una solución legislativa para abordar la crisis de derechos de autor generada por la inteligencia artificial (IA). Los autores argumentan que las empresas de IA están utilizando obras protegidas por derechos de autor sin compensación ni consentimiento para entrenar sus modelos, lo que amenaza los medios de subsistencia de los creadores y el ecosistema de conocimiento del que depende la propia IA. Para resolver esto, proponen un mecanismo de “opt-out” que permitiría a los titulares de derechos de autor prohibir el uso no autorizado de sus obras, junto con un sistema de gravámenes sobre las empresas de IA para compensar a los creadores cuyas obras se utilizan sin licencia.

Los autores justifican esta propuesta argumentando que es necesario restablecer el control de los creadores sobre sus obras y garantizar una compensación justa. Discuten varias formas de calcular los niveles apropiados de compensación, como un porcentaje de los ingresos o gastos de las empresas de IA. También abordan posibles objeciones, como que esto podría obstaculizar el desarrollo de la IA, argumentando que una compensación modesta no dañaría significativamente a las grandes empresas de tecnología y que un desarrollo más lento y controlado de la IA podría incluso ser beneficioso. En general, el documento aboga por un “Nuevo Trato” entre tecnólogos y creadores para equilibrar los intereses de la innovación en IA y la protección de los derechos de autor.

Descargar artículo aquí

Sobre las implicaciones antimonopolio de la integración de la IA Generativa en los servicios de plataformas tecnológicas

balanza de la justicia con unos engranajes de fodo

El documento de Thomas Hoppner y Steffen Uphues, analiza las implicaciones anticompetitivas de la integración de inteligencia artificial generativa (GenAI) en los servicios de plataforma centrales (CPS) de las grandes empresas tecnológicas. Los autores argumentan que esta integración exacerba los problemas de competencia existentes al permitir que las plataformas dominantes reutilicen el contenido de sus usuarios comerciales para satisfacer directamente la demanda de los usuarios finales, reduciendo así el valor proporcionado por estos usuarios comerciales. Esto lleva a una mayor centralización de la información, manipulación personalizada de los usuarios y creación de “dilemas del prisionero” para los usuarios comerciales, que se ven obligados a permitir el uso de sus datos para GenAI o enfrentar desventajas competitivas.

Para abordar estos problemas, los autores proponen varias recomendaciones de política. Estas incluyen reforzar los derechos de propiedad intelectual, establecer un marco obligatorio de negociación para una compensación justa, permitir acuerdos colectivos entre proveedores de contenido, separar los vínculos anticompetitivos entre CPS y GenAI, separar la difusión de contenido financiado por publicidad de la creación de contenido, y abordar las asociaciones preferenciales que pueden excluir a los rivales. El objetivo general es reequilibrar el control económico sobre la producción creativa y prevenir que la GenAI consuma la web abierta que permitió su surgimiento.

Descargar artículo aquí

Democracia Digital en la era de la Inteligencia Artificial

robot en una caja de vidrio rodeados por personas

El documento de Claudio Novelli de la University of Bologna y Giulia Sandri de la Université libre de Bruxelles, analiza la influencia de la inteligencia artificial (IA) en la democracia digital, centrándose en cuatro áreas principales: ciudadanía, participación, representación y esfera pública. Examina cómo la IA está transformando estos aspectos, ofreciendo tanto oportunidades como desafíos. Por un lado, la IA puede mejorar la participación política, facilitar procesos electorales más eficientes y ampliar el acceso a la información. Sin embargo, también plantea riesgos significativos, como la propagación de desinformación, la manipulación de la opinión pública y la erosión de la privacidad.

El texto destaca cómo la IA está cambiando fundamentalmente la naturaleza de la ciudadanía digital, la participación política y la representación. Señala que mientras la IA puede facilitar una mayor participación ciudadana y mejorar la eficiencia de los procesos democráticos, también puede exacerbar problemas existentes como la polarización política y la difusión de información falsa. El documento concluye que para mitigar estos riesgos, es crucial mejorar la alfabetización mediática digital de los ciudadanos y establecer regulaciones robustas para el uso ético de la IA en contextos democráticos.

Descargar artículo aquí

Repositorio de Riesgos de la IA

infografía que muestra los potenciales riegos de la AI

El documento de múltiples investigadores del MIT, presenta el desarrollo de un “AI Risk Repository”, una base de datos integral y accesible que cataloga y clasifica los riesgos asociados con la inteligencia artificial (IA). Los autores realizaron una revisión sistemática de 43 documentos existentes sobre taxonomías y clasificaciones de riesgos de IA, extrayendo 777 riesgos individuales. A partir de este análisis, desarrollaron dos taxonomías principales: una “Taxonomía Causal” de alto nivel que clasifica los riesgos según la entidad responsable (humano o IA), la intencionalidad y el momento en que ocurren; y una “Taxonomía de Dominio” de nivel medio que agrupa los riesgos en siete categorías principales como discriminación, privacidad, desinformación, y seguridad de los sistemas de IA.

Los autores destacan que esta es la primera base de datos exhaustiva y extensible de riesgos de IA accesible públicamente. El documento analiza las implicaciones de sus hallazgos para diferentes audiencias, incluyendo legisladores, auditores, académicos e industria. Entre los insights clave, se observa que la mayoría de los riesgos son atribuidos a decisiones o acciones de sistemas de IA (51%) más que a humanos (34%), y que ocurren después del despliegue del sistema (65%) más que antes (10%). Los dominios de riesgo más comúnmente discutidos fueron la seguridad y limitaciones de los sistemas de IA, y los daños socioeconómicos y ambientales. Los autores concluyen que este repositorio proporciona una base común para comprender y abordar los riesgos de la IA, aunque reconocen limitaciones y áreas para futuras investigaciones.

Descargar artículo aquí

Antropomorfizar las máquinas y computarizar las mentes: el cruce de entre la Inteligencia Artificial y las Ciencias Cognitivas y del Cerebro

una persona frente a un cerebro y un robot que correo hacia ella

El artículo de Luciano Floridi y Anna C Nobre de Yale University, discute el fenómeno del “préstamo conceptual” entre la inteligencia artificial (IA) y las ciencias del cerebro y cognitivas (BCS). Los autores argumentan que, al desarrollar su vocabulario técnico, la IA ha tomado prestados términos de las BCS, lo que ha llevado a una antropomorfización de las máquinas y algoritmos, atribuyéndoles propiedades psicológicas que no poseen realmente. Por otro lado, las BCS han adoptado términos de las ciencias de la información y la computación, lo que ha resultado en una descripción reduccionista del cerebro y la mente como meros sistemas de procesamiento de información. Esta “interconexión cruzada” de lenguajes técnicos entre disciplinas no es simplemente metafórica, sino que puede llevar a confusión y suposiciones dañinas.

Los autores trazan un paralelo con la observación de Carl Schmitt sobre cómo los conceptos políticos modernos tienen raíces teológicas, aplicando esta idea al desarrollo del vocabulario técnico en nuevas disciplinas científicas. Argumentan que este préstamo conceptual no es neutral y puede tener consecuencias negativas, como la generación de expectativas irreales sobre las capacidades de la IA o una comprensión empobrecida de la mente humana. Sin embargo, concluyen con una nota optimista, sugiriendo que, con el tiempo y el avance del conocimiento, los significados técnicos en el lenguaje pueden autoajustarse, permitiendo dejar atrás el equipaje conceptual engañoso cuando se enfrenta a un mejor entendimiento y conocimiento factual.

Descargar artículo aquí

La teoría es todo lo que necesitas: IA, cognición humana y toma de decisiones

una balanza de la justicia con la IA en un lado y el cerebero en el otro

El documento de investigadores de Oxford University, presenta una comparación crítica entre la inteligencia artificial (IA) y la cognición humana, argumentando que, aunque la IA ha logrado avances impresionantes en diversas tareas cognitivas, carece de capacidades fundamentales que caracterizan la cognición humana. Los autores sostienen que los modelos de IA, como los grandes modelos de lenguaje (LLM), se basan principalmente en la predicción y el procesamiento de datos históricos, mientras que la cognición humana se caracteriza por una capacidad de teorización orientada al futuro y un razonamiento causal. Argumentan que la IA está limitada por los datos con los que ha sido entrenada, mientras que los humanos pueden generar ideas genuinamente nuevas y realizar experimentos para probar teorías que van más allá de los datos existentes.

El documento introduce el concepto de “asimetría datos-creencias”, donde las creencias humanas pueden preceder y guiar la búsqueda de datos relevantes, en contraste con los enfoques basados en IA que dependen principalmente de datos existentes. Los autores utilizan ejemplos históricos, como el desarrollo del vuelo propulsado por los hermanos Wright, para ilustrar cómo el razonamiento causal y la experimentación dirigida por teorías pueden llevar a avances que no son predecibles basándose únicamente en datos pasados. Concluyen que, aunque la IA es una herramienta poderosa para ciertas tareas, no puede reemplazar completamente la toma de decisiones humana, especialmente en situaciones de alta incertidumbre o que requieren innovación radical. El documento sugiere que el futuro de la toma de decisiones probablemente implique una combinación de capacidades humanas y de IA, aprovechando las fortalezas únicas de cada una.

Descargar artículo aquí

La ley de la IA es la ley de los agentes de riesgo sin intenciones

un robot mirando el mundo (globo terraqueo)

El documento de Ian Ayres y Jack M. Balkin de Yale Law School, argumenta que el enfoque legal más apropiado para regular la inteligencia artificial (IA) es tratarla como “agentes riesgosos sin intenciones”. Los autores proponen que, en lugar de intentar atribuir intenciones a los sistemas de IA, la ley debería emplear estándares objetivos y razonables de conducta, similar a cómo se regulan otras tecnologías o agentes sin intenciones. Esto implica responsabilizar a las personas y organizaciones que implementan y utilizan la IA por los riesgos y daños potenciales que estos sistemas puedan causar. El documento sugiere que la regulación debe enfocarse en requerir que las empresas de IA internalicen los costos de los riesgos que imponen a la sociedad, a través de reglas y estándares que regulen el diseño, entrenamiento e implementación de estos sistemas.

Los autores aplican este enfoque a dos casos específicos: la difamación y la infracción de derechos de autor por parte de sistemas de IA. En el caso de la difamación, argumentan que se debe aplicar un enfoque de responsabilidad por productos defectuosos, donde los diseñadores de sistemas de IA tienen el deber de implementar salvaguardas razonables para reducir el riesgo de producir contenido difamatorio. En cuanto a los derechos de autor, proponen un sistema de “puerto seguro” donde las empresas de IA puedan evitar la responsabilidad si toman medidas razonables para reducir el riesgo de infracción, como implementar filtros y obtener licencias cuando sea posible. En general, el documento enfatiza la necesidad de adaptar las leyes existentes para abordar los desafíos únicos presentados por la IA, manteniendo el foco en la responsabilidad de los actores humanos detrás de la tecnología.

Descargar artículo aquí

¿Un mundo feliz? Bienestar humano e IA paternalista

un robot que mece a un niño recién nacido

El documento de Cass R. Sunstein de Harvard University, argumenta que los “Motores de Elección” impulsados por Inteligencia Artificial (IA) podrían mejorar significativamente el bienestar humano al ayudar a los consumidores a superar la falta de información y los sesgos conductuales, especialmente el sesgo del presente, que lleva a las personas a subestimar los beneficios futuros de sus decisiones actuales. El autor sugiere que estos sistemas de IA podrían ser particularmente útiles en áreas como la elección de vehículos y planes de jubilación, donde las decisiones tienen consecuencias a largo plazo tanto para el individuo como para la sociedad (externalidades). Se plantea que los Motores de Elección podrían ofrecer recomendaciones personalizadas que equilibren las preferencias individuales con consideraciones de bienestar a largo plazo y efectos externos, potencialmente superando la efectividad de las regulaciones gubernamentales generalizadas.

Sin embargo, el documento también advierte sobre los riesgos potenciales de estos sistemas de IA, incluyendo la posibilidad de que repliquen o desarrollen sus propios sesgos, que sean demasiado generales para capturar adecuadamente las preferencias individuales, o que sean explotados por actores malintencionados para manipular a los consumidores. El autor enfatiza la necesidad de regulación y salvaguardas legales para garantizar que los Motores de Elección realmente beneficien a los consumidores y no se conviertan en herramientas de explotación. Se concluye que, si se implementan y regulan adecuadamente, los Motores de Elección impulsados por IA tienen el potencial de hacer que la vida sea “menos desagradable, menos brutal y menos corta”, ayudando a las personas a navegar por decisiones complejas de una manera que mejore su bienestar a largo plazo.

Descargar artículo aquí

El gran enfrentamiento: Choque entre scraping y privacidad

un brazo robótico tratando de entrar en una puerta que está bloqueada en un candado

El documento de Daniel J. Solove y Woodrow Hartzog de George Washington University Law School, argumenta que existe una tensión fundamental entre la práctica del scraping (extracción masiva y automatizada de datos de internet) y los principios básicos de las leyes de privacidad. Los autores sostienen que el scraping viola prácticamente todos los principios clave de privacidad, como el consentimiento, la transparencia, la minimización de datos y el control individual. Sin embargo, reconocen que una prohibición total del scraping sería indeseable, ya que esta práctica es esencial para muchas funciones de internet y el desarrollo de la inteligencia artificial. 

Los autores proponen una reconciliación entre el scraping y la privacidad basada en el concepto de “interés público”. Sugieren que el scraping de datos personales solo debería permitirse cuando sirva al interés público, con salvaguardas procesales y sustantivas para garantizar que sea seguro y evite la explotación. Proponen cuatro principios para guiar esta reconciliación: 1) El principio de riesgo razonable de daño, 2) El principio de beneficios proporcionales, 3) El principio de proceso justo, y 4) El principio de protecciones. Argumentan que este enfoque permitiría un equilibrio entre la necesidad de datos para el desarrollo tecnológico y la protección de la privacidad individual y colectiva.

Descargar artículo aquí

Regular en la incertidumbre: Opciones de gobernanza para la IA generativa

balanza de la justicia con un robot en un lado

Este extenso documento, de más de 500 páginas de Florence G’sell del Stanford Cyber Policy Center se centra en la regulación de la inteligencia artificial generativa. Destaca que la revolución de la IA promete transformar la economía y todos los sistemas sociales, pero también plantea riesgos significativos. El informe analiza las propuestas existentes para la gobernanza de la IA generativa, señalando que los gobiernos deben equilibrar la promoción de los beneficios de la IA con la mitigación de daños presentes y futuros riesgos existenciales. Se describen diferentes enfoques regulatorios, desde el modelo laissez-faire de Estados Unidos hasta el modelo de comando y control de China, con la Unión Europea ocupando una posición intermedia de co-regulación.

El detallado informe destaca la Ley de IA de la UE como la legislación más significativa y completa hasta la fecha, que clasifica los sistemas de IA en categorías de riesgo y establece requisitos específicos para cada nivel. También se mencionan otras iniciativas internacionales y principios clave que emergen del análisis, como la importancia de regular tanto la tecnología como sus aplicaciones, la necesidad de transparencia y auditoría, la relevancia de la aplicación efectiva de las regulaciones, el equilibrio de poder entre los sectores público y privado, y los desafíos planteados por los modelos de código abierto. El informe concluye subrayando la urgencia de la regulación a pesar de la incertidumbre, y la necesidad de cooperación internacional para establecer mejores prácticas.

Descargar artículo aquí

La entrada La IA y sus grandes desafíos de gobernanza se publicó primero en El Escritorio de Alejandro Barros.



Fuente: Alejandro Barros (La IA y sus grandes desafíos de gobernanza).