La UE acaba de aprobar nuevas normas drásticas para regular la IA

La Unión Europea acaba de aprobar nuevas medidas drásticas para regular la inteligencia artificial (IA)

Hoy, la Unión Europea llegó a un acuerdo sobre los detalles de la Ley de IA, un conjunto de normas de gran alcance para las personas que construyen y utilizan la inteligencia artificial. Es una ley histórica que, se espera, creará un modelo para el resto del mundo.

Después de meses de debate sobre cómo regular empresas como OpenAI, los legisladores de las tres ramas del gobierno de la UE: el Parlamento, el Consejo y la Comisión, pasaron más de 36 horas en total discutiendo la nueva legislación entre el miércoles por la tarde y el viernes por la noche. Los legisladores estaban bajo presión para llegar a un acuerdo antes de que comience la campaña electoral del Parlamento Europeo en el nuevo año.

“La Ley de IA de la UE es pionera a nivel mundial”, dijo la presidenta de la Comisión Europea, Ursula von der Leyen, en X. “[Es] un marco legal único para el desarrollo de la IA en la que se puede confiar. Y para la seguridad y los derechos fundamentales de las personas y las empresas”.

La ley en sí no es la primera en el mundo; las nuevas normas de China para la IA generativa entraron en vigor en agosto. Pero la Ley de IA de la UE es el conjunto de reglas más amplio de su tipo para la tecnología. Incluye prohibiciones de sistemas biométricos que identifican a las personas utilizando características sensibles como la orientación sexual y la raza, y la extracción indiscriminada de rostros de Internet. Los legisladores también acordaron que las fuerzas del orden deben poder utilizar sistemas de identificación biométrica en espacios públicos para determinados delitos.

También se incluyeron nuevos requisitos de transparencia para todos los modelos de IA de propósito general, como el GPT-4 de OpenAI, que impulsa ChatGPT, y normas más estrictas para los modelos “muy potentes”. “La Ley de IA establece normas para modelos de IA grandes y potentes, asegurándose de que no representen riesgos sistémicos para la Unión”, dice Dragos Tudorache, miembro del Parlamento Europeo y uno de los dos ponentes que lideraron las negociaciones.

Las empresas que no cumplan con las normas pueden ser multadas con hasta el 7 por ciento de su volumen de negocio mundial. Las prohibiciones de la IA prohibida entrarán en vigor en seis meses, los requisitos de transparencia en 12 meses y el conjunto completo de normas en aproximadamente dos años.

También se incluyeron medidas diseñadas para facilitar la protección de los titulares de derechos de autor frente a la IA generativa y para exigir que los sistemas de IA de propósito general sean más transparentes en cuanto a su consumo de energía.

“Europa se ha posicionado como pionera, comprendiendo la importancia de su papel como creadora de estándares globales”, dijo el Comisario Europeo Thierry Breton en una conferencia de prensa el viernes por la noche.

A lo largo de los dos años en los que los legisladores han estado negociando las normas acordadas hoy, la tecnología de IA y las principales preocupaciones sobre ella han cambiado drásticamente. Cuando se concibió la Ley de IA en abril de 2021, los responsables políticos se preocupaban por los algoritmos opacos que decidirían quién conseguiría un trabajo, se le otorgaría el estatuto de refugiado o recibiría beneficios sociales. En 2022, hubo ejemplos de que la IA estaba causando daño activamente. En un escándalo en los Países Bajos, las decisiones tomadas por algoritmos se relacionaron con la separación forzada de familias de sus hijos, mientras que estudiantes que estudiaban a distancia alegaron que los sistemas de IA los discriminaban en función del color de su piel.

Luego, en noviembre de 2022, OpenAI lanzó ChatGPT, cambiando drásticamente el debate. El salto en la flexibilidad y popularidad de la IA provocó alarma en algunos expertos en IA, que hacían hiperbólicas comparaciones entre la IA y las armas nucleares.

Esa discusión se manifestó en las negociaciones de la Ley de IA en Bruselas en forma de un debate sobre si los creadores de los llamados modelos fundamentales, como el de ChatGPT, como OpenAI y Google, deberían considerarse como la raíz de problemas potenciales y regularse en consecuencia, o si las nuevas normas deberían centrarse en las empresas que utilizan esos modelos fundamentales para construir nuevas aplicaciones impulsadas por la IA, como chatbots o generadores de imágenes.

Representantes de la industria europea de IA generativa expresaron precaución sobre regular los modelos base, diciendo que podría obstaculizar la innovación entre las startups de IA del bloque. “No podemos regular un motor desprovisto de uso”, dijo Arthur Mensch, CEO de la empresa francesa de IA Mistral, dijo el mes pasado. “No regulamos el lenguaje C [de programación] porque se puede usar para desarrollar malware. En cambio, prohibimos el malware”. El modelo base 7B de Mistral estaría exento de las reglas acordadas hoy porque la empresa aún se encuentra en la fase de investigación y desarrollo, dijo Carme Artigas, Secretaria de Estado de Digitalización e Inteligencia Artificial de España, en la conferencia de prensa.

El punto principal de desacuerdo durante las discusiones finales que se extendieron hasta tarde en la noche dos veces esta semana fue si las fuerzas del orden deberían permitirse utilizar reconocimiento facial u otros tipos de biometría para identificar a las personas en tiempo real o retrospectivamente. “Ambos destruyen el anonimato en los espacios públicos”, dice Daniel Leufer, analista senior de políticas en el grupo de derechos digitales Access Now. La identificación biométrica en tiempo real puede identificar a una persona que se encuentra en una estación de tren en este momento utilizando transmisiones de cámaras de seguridad en vivo, explica, mientras que la identificación biométrica “post” o retrospectiva puede determinar que la misma persona también visitó la estación de tren, un banco y un supermercado ayer, utilizando imágenes o videos previamente almacenados.

Leufer dijo que estaba decepcionado por las “lagunas” para las fuerzas del orden que parecían haber sido incorporadas a la versión final de la ley hoy.

La lenta respuesta de los reguladores europeos a la aparición de la era de las redes sociales se cernió sobre las discusiones. Casi 20 años transcurrieron entre el lanzamiento de Facebook y la entrada en vigor del Acta de Servicios Digitales, el libro de reglas de la UE diseñado para proteger los derechos humanos en línea, este año. En ese tiempo, el bloque se vio obligado a lidiar con los problemas creados por las plataformas estadounidenses, sin poder fomentar a sus desafiantes europeos más pequeños. “Quizás podríamos haber prevenido [los problemas] mejor mediante una regulación anterior”, dijo Brando Benifei, uno de los dos negociadores principales del Parlamento Europeo, a ENBLE en julio. La tecnología de IA avanza rápido. Pero pasarán muchos años hasta que sea posible decir si el Acta de IA es más exitosa en contener los inconvenientes de la última exportación de Silicon Valley.