IA, ¿la estamos regulando bien?

Caricatura de Kevin Kallaugher respecto de IA y la regulación

Diferentes actores han planteado que el proyecto de ley de IA actualmente en el congreso requiere de importantes mejoras

Durante los últimos cinco años, la regulación de la inteligencia artificial (IA) ha pasado de declaraciones éticas a marcos jurídicos cada vez más detallados. La Unión Europea por su parte aprobó la AI Act con un modelo escalonado de riesgo (inaceptable, alto, limitado, mínimo). En el caso de Estados Unidos si bien no cuenta con un marco regulatorio a nivel federal, a nivel estatal algunos estados han avanzado. En China el estado estableció ciertos lineamientos éticos para su uso.

Nuestro país por su parte a través del Ministerio de Ciencias ha presentado un proyecto de ley para regular los sistemas de inteligencia artificial, el cual se encuentra en proceso de discusión legislativa.

Proyecto de Ley

Los principales elementos del proyecto de ley que regula los sistemas de IA (Boletin 16821-19) son:

  • Se basa en un modelo de riesgo con cuatro categorías: riesgo inaceptable (prohibido), alto, limitado y sin riesgo evidente.
  • Se aplica a cualquier actor que use las salidas de un sistema de IA en Chile.
  • Establece una clasificación de los sistemas en: i ) Riesgo inaceptable (prácticas de manipulación, calificación social y ciertos usos biométricos quedan prohibidos de plano), ii) Alto riesgo: deben cumplir un sistema de gestión de riesgos, supervisión humana, seguimiento poscomercialización e interrupción si no se ajustan a la ley, iii) Riesgo limitado: obligación de transparencia—informar claramente a las personas que interactúan con una IA . El listado específico será definido por el reglamento.
  • Establece deberes de notificación a la Agencia de Protección de Datos y de respuesta inmediata del operador frente a incidentes que afecten derechos o seguridad.
  • Desde un punto de vista de la Gobernanza, plantea un Consejo Asesor Técnico de IA, esto es, órgano consultivo pluripartito encargado de proponer listados de sistemas de alto y limitado riesgo y lineamientos de cumplimiento. La Agencia de Protección de Datos (autoridad fiscalizadora): fiscaliza, instruye procedimientos sancionatorios y resuelve reclamos de personas afectadas y el Ministerio de Ciencias como un articulador de la política pública.
  • En el ambito de la innovación, establece espacios controlados de prueba (sandbox) donde los organismos públicos pueden autorizar pilotos de IA bajo supervisión.
  • Modifica la Ley 17.336 de Propiedad Intelectual para incorporar una excepción de “text & data mining” que habilita el entrenamiento de modelos de IA sin infringir derechos de autor, siempre que no haya explotación encubierta de obras protegidas .

Marco Conceptual

El artículo titulado Regulating Algorithmic Harms de Sylvia Lu, Faculty Fellow, Visiting Assistant Professor, Facultad de Derecho de la Universidad de Michigan; Doctor en Ciencias Jurídicas, Universidad de California, Berkeley, publicado en Florida Law Review se centra principalmente en los desafíos que presentan los sistemas algorítmicos, especialmente en el contexto de los derechos civiles, los valores democráticos y la supervisión legal.

El documento de Lu plantea 4 tipos de daños:

  • Erosión de la Privacidad: La IA recopila datos personales de manera extensiva, a menudo sin consentimiento o conocimiento, lo que provoca violaciones a la privacidad.
  • Socavamiento de la Autonomía: Los sistemas de IA, como los algoritmos de redes sociales, manipulan el comportamiento de los usuarios, reduciendo su libertad de elección.
  • Deterioro de la Igualdad: La IA puede perpetuar e incluso exacerbar los sesgos existentes, lo que lleva a la discriminación contra ciertos grupos, como minorías raciales o personas de bajos ingresos.
  • Perjuicio a la Seguridad: Las aplicaciones de IA pueden causar daños físicos y mentales, como se observa en los comportamientos adictivos fomentados por las plataformas de redes sociales o los sistemas de IA defectuosos que proporcionan asesoramiento médico incorrecto.

Y que estos daños pueden tener factores agravantes:

  • Falta de Responsabilidad: La falta de mecanismos de responsabilidad dificulta rastrear la responsabilidad por los daños, lo que contribuye a la ausencia de acciones correctivas.
  • Opacidad Algorítmica: La complejidad y el secretismo de los sistemas de IA hacen que sea difícil detectar y abordar estos daños.

Al realizar un análisis comparativo del marco conceptual planteado por Lu y lo que define el proyecto de ley

Tema Sylvia Lu Proyecto de Ley
Foco regulatorio Daños: tipología de cuatro daños (privacidad, autonomía, igualdad, seguridad) y dos factores agravantes (opacidad, falta de rendición de cuentas) . Riesgo: categorías de riesgo con prohibiciones y obligaciones crecientes .
Herramienta principal Impact Assessments centrados en daños acumulativos y difusos; ex-ante y ex-post; publicados a la autoridad . Obligación de seguimiento post-comercialización para alto riesgo, pero sin evaluación de impacto previa obligatoria ni publicación .
Derechos individuales Derecho a opt-out u opt-in según el nivel de daño; refuerza control ciudadano . Solo transparencia “usted interactúa con una IA” para riesgo limitado; no contempla derecho de exclusión.
Transparencia / divulgación Deber de algorithmic social disclosures sobre daños previstos y mitigaciones . Reglas de confidencialidad amplias (protección de secretos comerciales y seguridad nacional) que podrían limitar divulgación pública.
Sandbox / innovación Reconoce necesidad de pruebas controladas, pero subordinadas a mitigación de daños. Crea “espacios controlados de pruebas” y beneficios para pymes como eje pro-innovación.

El proyecto de Ley de nuestro país, pone el peso ex-ante en la clasificación por riesgo, mientras Lu prioriza identificar y corregir daños concretos a lo largo de todo el ciclo de vida del sistema.

¿Qué plantea la Industria TI?

Por su parte algunos actores de la Industria través de una declaración pública, plantea objeciones al proyecto de ley:

  • Rigidez y costos para pymes y startups: efectivamente puede existir un peso regulatorio mayor para las empresas de menor tamaño, el cual debería ser mitigado con un modelo más escalonado de sanciones y costos de implementación.
  • Restricciones al entrenamiento de modelos fundacionales (derechos de autor): llama la atención está critica ya que el propio proyecto de ley plantae algunos cambios a ley de protección de datos.
  • Sobrerregulación “más dura que la UE”: la regulación no es más dura que la de la Unión Europea, lo que si falta mayor claridad en el ámbito de los riesgos y su gestión, probablemente esto debiera ser regulado en el reglamento.
  • Pérdida de competitividad regional: llama la atención este argumento ya que la falta de regulación también afecta la competividad.

¿Qué plantean otros actores?

Por su parte la Asociación de Profesionales en Protección de Datos Personales – AGPD ha planteado en una declaración pública, que el proyecto actual «… presenta varios puntos que requieren mejoras, como la explicabilidad, la regulación de los sistemas de alto riesgo y el diseño de los sandboxes regulatorios, entre otros …»

Próximos pasos

El ejecutivo recientemente decidió detener la discusión del proyecto de ley, luego de que la Comisión de Hacienda rechazara el informe financiero del proyecto. Creo que es buen momento para remirar el proyecto y dotarlo de algunos elementos que debieran incorporarse

  • Incorporar la lógica de daños que plantea Lu, exigiendo evaluaciones de Impacto Algorítmico públicas para sistemas de alto riesgo.
  • Desde un punto de vista de los usuarios, establecer mecanismo de opt-out para usos comerciales invasivos y opt-in obligatorio para ciertos usos (reconocimiento facial y biométricos).
  • Dotar de más mecanismos de transparencia, publicando los resultados de pruebas en sandboxes e incidentes graves.
  • Dotar de mecanismos de apoyo al cumplimiento por parte de empresas de menor tamaño.
  • Dados los avances que esta área tiene, establecer mesas multi-actor con facultad de proponer ajustes reglamentarios anuales.
  • Reforzar la futura Agencia de Protección de Datos de peritos en auditoría algorítmica y presupuesto acorde.

Información Complementaria

Imagen: Caricatura de Kevin Kallaugher, quien me autorizo su uso, más información sobre los buenos dibujos de Kevin aquí

La entrada IA, ¿la estamos regulando bien? se publicó primero en Escritorio de Alejandro Barros.



Fuente: Alejandro Barros (IA, ¿la estamos regulando bien?).