UE: Nueva regulación de IA

Nueva regulación europea de IA, espero sea fuente de inspiración para nuestras regulaciones al respecto

Esta semana (13/3/2024) finalmente y luego de un largo debate se aprobó la nueva regulación de IA para los países miembros de la Unión Europea, en una votación muy clara, se votó por 523 votos a favor y 46 en contra la nueva normativa.  Incluso algunos países, en particular Francia  y Alemania que estaban preocupados por el impacto de la regulación fundamentalmente asociados al freno que esta podía presentar a la innovación y emprendimiento, si se incluían normas asociadas a modelos y no sólo a usos, terminaron por aprobar.

Esta noticia, es especialmente relevante para los países de la región, que muchos de ellos se encuentran en procesos de establecer marcos regulatorios de la IA, en algunos casos en algunos casos con ideas bastante malas al respecto, aquí un buen ejemplo.

Objetivo

Como lo declara el documento final el objetivo de la regulación es:

“Establecer un marco jurídico uniforme, en particular para el desarrollo, la introducción en el mercado, la puesta en servicio y el uso de sistemas de inteligencia artificial (sistemas de IA), de conformidad con los valores de la Unión, para promover la adopción de la inteligencia artificial (IA) centrada en el ser humano y digna de confianza, garantizando al mismo tiempo un alto nivel de protección de la salud, la seguridad, los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea (la “Carta”), incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, contra los efectos nocivos de los sistemas de IA en la Unión, y para apoyar la innovación”

El modelo regulatorio adoptado es uno basado en usos (sus riesgos asociados, esto es, la probabilidad de ocurrencia y el impacto que dicho uso tiene), más que uno vinculado a tecnologías y modelos.

Para ello identifica varias categorías, siendo las más relevantes, la categoría de uso prohibidos y la de alto riesgo.

Usos prohibidos

Algunos sistemas de IA están prohibidos (los países tendrán 6 meses después de aprobada la ley para aplicarla en sus países), como los que implican:

  • Manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos;
  • Scoring social, clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales;
  • Identificación biométrica y categorización de personas;
  • Sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial.

Sistemas de alto riesgo

Como sistemas de alto riesgo, se plantean algunos ejemplos:

  • Infraestructuras críticas (por ejemplo, transporte) que podrían poner en riesgo la vida y la salud de los ciudadanos;
  • Formación educativa o profesional que puede determinar el acceso a la educación y el curso profesional de la vida de alguien (por ejemplo, calificación de exámenes);
  • Componentes de seguridad de los productos (por ejemplo, aplicación de IA en cirugía asistida por robot);
  • Empleo, gestión de trabajadores y acceso al autoempleo (por ejemplo, software de clasificación de CV para procedimientos de contratación);
  • Servicios públicos y privados esenciales (por ejemplo, la calificación crediticia que niega a los ciudadanos la oportunidad de obtener un préstamo);
  • Aplicación de la ley que pueda interferir en los derechos fundamentales de las personas (por ejemplo, evaluación de la fiabilidad de las pruebas);
  • Gestión de la migración, el asilo y el control de fronteras (por ejemplo, examen automatizado de las solicitudes de visado);
  • Administración de justicia y procesos democráticos (por ejemplo, soluciones de IA para buscar sentencias judiciales).

¿Qué pasa con IA Generativa?

Muchos se preguntaba que pasaría con los LLM y la inteligencia artificial generativa (ChatGPT, Board, Gemini, Midjourney y Dall-E entre otros) , si bien no quedaron clasificadas como alto riesgo, le pone ciertas exigencias, asociadas a transparencia y protección de derecho de autor.

  • Revelar que el contenido ha sido generado por IA;
  • Diseñar el modelo para evitar que genere contenidos ilegales;
  • Publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.

Vigencia y multas

calendario de implementación de la ley de IA

Según el comunicado se espera que se transforme en ley en mayo o junio.  Su aplicación es gradual, en dos años debe quedar totalmente operativa.

Las multas establecidas no son menores, pueden alcanzar los 35 millones de euros o el 7% de la facturación anual mundial de la empresa involucrada.

Espero este nuevo marco normativo sea un buen ejemplo a considerar a la hora de regular la IA en estas latitudes.

Información Complementaria

La entrada UE: Nueva regulación de IA se publicó primero en El Escritorio de Alejandro Barros.



Fuente: Alejandro Barros (UE: Nueva regulación de IA).