Gigantes de la IA se comprometen a permitir investigaciones externas de sus algoritmos, bajo un nuevo acuerdo de la Casa Blanca

Gigantes de la IA permitirán investigaciones externas de sus algoritmos según acuerdo de la Casa Blanca

La Casa Blanca ha llegado a un acuerdo con importantes desarrolladores de IA, incluyendo Amazon, Google, Meta, Microsoft y OpenAI, que los compromete a tomar medidas para evitar que se lancen modelos de IA perjudiciales al mundo.

Según el acuerdo, que la Casa Blanca llama un “compromiso voluntario”, las empresas se comprometen a llevar a cabo pruebas internas y permitir pruebas externas de nuevos modelos de IA antes de que sean lanzados públicamente. La prueba buscará problemas como resultados sesgados o discriminatorios, fallos de ciberseguridad y riesgos de daño social más amplio. Las startups Anthropic e Inflection, ambos desarrolladores de destacadas alternativas al ChatGPT de OpenAI, también participaron en el acuerdo.

“Las empresas tienen la responsabilidad de asegurarse de que sus productos sean seguros antes de presentarlos al público, mediante la prueba de la seguridad y capacidad de sus sistemas de IA”, dijo Ben Buchanan, asesor especial de IA de la Casa Blanca, en una rueda de prensa ayer. Los riesgos que se les pidió a las empresas que buscaran incluyen violaciones de privacidad e incluso posibles contribuciones a amenazas biológicas. Las empresas también se comprometieron a informar públicamente sobre las limitaciones de sus sistemas y los riesgos de seguridad y sociales que podrían plantear.

El acuerdo también establece que las empresas desarrollarán sistemas de marca de agua que faciliten a las personas identificar el audio y las imágenes generadas por la IA. OpenAI ya añade marcas de agua a las imágenes producidas por su generador de imágenes Dall-E, y Google ha dicho que está desarrollando una tecnología similar para las imágenes generadas por IA. Ayudar a las personas a discernir qué es real y qué es falso es un problema creciente a medida que las campañas políticas parecen estar recurriendo a la IA generativa antes de las elecciones de Estados Unidos en 2024.

Los recientes avances en los sistemas de IA generativa que pueden crear texto o imágenes han desencadenado una nueva carrera armamentística de IA entre empresas que adaptan la tecnología para tareas como la búsqueda en la web y la redacción de cartas de recomendación. Pero los nuevos algoritmos también han generado renovada preocupación por la IA que refuerza sistemas sociales opresivos como el sexismo o el racismo, aumenta la desinformación electoral o se convierte en herramientas para el cibercrimen. Como resultado, los reguladores y legisladores en muchas partes del mundo, incluido Washington, DC, han aumentado los llamados a una nueva regulación, incluyendo requisitos para evaluar la IA antes de su implementación.

No está claro cuánto cambiará el acuerdo la forma en que operan las principales empresas de IA. Ya es común que las empresas tecnológicas contraten personas para trabajar en políticas y pruebas de IA debido a la creciente conciencia de los posibles inconvenientes de la tecnología. Google tiene equipos que prueban sus sistemas y publicita información como los casos de uso previstos y las consideraciones éticas para ciertos modelos de IA. Meta y OpenAI a veces invitan a expertos externos a intentar romper sus modelos en un enfoque denominado “red-teaming”.

“Guiados por los principios fundamentales de seguridad, confianza y confidencialidad, los compromisos voluntarios abordan los riesgos presentados por los modelos avanzados de IA y promueven la adopción de prácticas específicas, como la prueba de red-teaming y la publicación de informes de transparencia, que impulsarán a todo el ecosistema”, dijo el presidente de Microsoft, Brad Smith, en una publicación de blog.

Los posibles riesgos sociales a los que se comprometen las empresas a vigilar no incluyen la huella de carbono del entrenamiento de los modelos de IA, una preocupación que ahora se menciona comúnmente en la investigación sobre el impacto de los sistemas de IA. Crear un sistema como ChatGPT puede requerir miles de procesadores de alta potencia que funcionen durante períodos prolongados.

Andrew Burt, socio gerente del bufete de abogados BNH, especializado en IA, dice que los riesgos potenciales de los sistemas de IA generativa están quedando claros para todos los involucrados con la tecnología. La Comisión Federal de Comercio inició una investigación sobre las prácticas comerciales de OpenAI la semana pasada, alegando que la empresa participó en “prácticas de privacidad o seguridad de datos injustas o engañosas”.

El requisito del acuerdo de la Casa Blanca de que las empresas deben encargar evaluaciones externas de su tecnología se suma a la evidencia de que las auditorías externas están convirtiéndose en “la forma central en que los gobiernos ejercen la supervisión de los sistemas de IA”, dice Burt.

La Casa Blanca también promovió el uso de auditorías en la Declaración voluntaria de Derechos de IA emitida el año pasado, y está apoyando un concurso de piratería centrado en modelos de IA generativa en la conferencia de seguridad Defcon del próximo mes. Las auditorías también son un requisito del amplio Reglamento de IA de la UE, que actualmente se está finalizando.

Jacob Appel, estratega jefe de ORCAA, una empresa que audita algoritmos para empresas y el gobierno, dice que el acuerdo es bienvenido, pero que las evaluaciones generales de modelos de lenguaje grandes como los que están detrás de ChatGPT son insuficientes. Los casos de uso específicos y de alto riesgo de IA, como un chatbot afinado para generar consejos médicos o legales, deben recibir sus propias evaluaciones personalizadas, dice. Y los sistemas de empresas más pequeñas también necesitan un escrutinio.

El presidente Joe Biden se reunirá hoy en la Casa Blanca con ejecutivos de las empresas que se unieron al nuevo acuerdo de IA, incluyendo al CEO de Anthropic, Dario Amodei, al presidente de Microsoft, Brad Smith, y al CEO de Inflection AI, Mustafa Suleyman. Su administración también está desarrollando una orden ejecutiva para gobernar el uso de la IA a través de acciones de agencias federales, pero la Casa Blanca no dio un plazo específico para su publicación.

Actualizado el 21 de julio de 2023, 2:20 pm EDT: Este artículo fue actualizado con un comentario de Jacob Appel en ORCAA.