Senadores quieren que la IA a nivel de ChatGPT requiera una licencia gubernamental

Senators want government licensing for ChatGPT-level AI

El gobierno de Estados Unidos debería crear un nuevo organismo para regular la inteligencia artificial y restringir el trabajo en modelos de lenguaje como el GPT-4 de OpenAI solo a aquellas empresas que tengan licencias para hacerlo. Esa es la recomendación de una pareja bipartidista de senadores, el demócrata Richard Blumenthal y el republicano Josh Hawley, quienes presentaron ayer un marco legislativo que servirá de modelo para futuras leyes e influirá en otros proyectos de ley ante el Congreso.

Según la propuesta, el desarrollo de aplicaciones de inteligencia artificial como el reconocimiento facial y otras aplicaciones de “alto riesgo” también requeriría una licencia gubernamental. Para obtenerla, las empresas deberían probar los modelos de inteligencia artificial en busca de posibles daños antes de implementarlos, revelar casos en los que las cosas salgan mal después del lanzamiento y permitir auditorías de los modelos de inteligencia artificial realizadas por una tercera parte independiente.

El marco también propone que las empresas divulguen públicamente los detalles de los datos de entrenamiento utilizados para crear un modelo de inteligencia artificial y que las personas perjudicadas por la inteligencia artificial tengan derecho a llevar a la empresa responsable ante los tribunales.

Las sugerencias de los senadores podrían tener influencia en los próximos días y semanas a medida que los debates se intensifiquen en Washington, DC, sobre cómo regular la inteligencia artificial. A principios de la próxima semana, Blumenthal y Hawley supervisarán una audiencia de un subcomité del Senado sobre cómo responsabilizar de manera significativa a las empresas y gobiernos cuando despliegan sistemas de inteligencia artificial que causan daño a las personas o violan sus derechos. El presidente de Microsoft, Brad Smith, y el científico jefe del fabricante de chips Nvidia, William Dally, están programados para testificar.

Un día después, el senador Chuck Schumer organizará la primera de una serie de reuniones para discutir cómo regular la inteligencia artificial, un desafío al que Schumer se ha referido como “una de las cosas más difíciles que hemos emprendido”. Ejecutivos de tecnología con interés en la inteligencia artificial, incluyendo a Mark Zuckerberg, Elon Musk y los CEOs de Google, Microsoft y Nvidia, representan aproximadamente la mitad de la lista de invitados, que cuenta con casi dos docenas de participantes. Otros asistentes representan a aquellos que probablemente estarán sujetos a algoritmos de inteligencia artificial, e incluyen a los presidentes de sindicatos de la Writers Guild y la federación sindical AFL-CIO, y a investigadores que trabajan en evitar que la inteligencia artificial viole los derechos humanos, como Deb Raji de la UC Berkeley y Rumman Chowdhury, CEO de Humane Intelligence y antiguo líder ético de inteligencia artificial de Twitter.

Anna Lenhart, quien anteriormente lideró una iniciativa de ética de inteligencia artificial en IBM y ahora es candidata a doctorado en la Universidad de Maryland, dice que el marco legislativo de los senadores es una buena señal después de años de expertos en inteligencia artificial compareciendo ante el Congreso para explicar cómo y por qué se debe regular la inteligencia artificial.

“Es realmente refrescante ver que se están ocupando de esto y no están esperando a una serie de foros de debate o a una comisión que pasará dos años hablando con un montón de expertos para crear esencialmente esta misma lista”, dice Lenhart.

Pero no está segura de cómo cualquier nuevo organismo de supervisión de la inteligencia artificial podría contar con el amplio conocimiento técnico y legal requerido para supervisar la tecnología utilizada en muchas áreas, desde coches autónomos hasta atención médica y vivienda. “Ahí es donde me quedo un poco atascada con la idea del régimen de licencias”, dice Lenhart.

La idea de utilizar licencias para restringir quién puede desarrollar sistemas de inteligencia artificial poderosos ha ganado fuerza tanto en la industria como en el Congreso. El CEO de OpenAI, Sam Altman, sugirió la obtención de licencias para desarrolladores de inteligencia artificial durante su testimonio ante el Senado en mayo, una solución regulatoria que podría ayudar, sin duda, a que su empresa mantenga su posición de liderazgo. Un proyecto de ley propuesto el mes pasado por los senadores Lindsay Graham y Elizabeth Warren también requeriría que las empresas de tecnología obtengan una licencia gubernamental para utilizar inteligencia artificial, pero solo se aplica a plataformas digitales por encima de cierto tamaño.

Lenhart no es la única experta en inteligencia artificial o política escéptica sobre la licencia gubernamental para el desarrollo de inteligencia artificial. En mayo, la idea recibió críticas tanto del grupo de campaña política de tendencia libertaria Americans for Prosperity, que teme que esto limite la innovación, como de la organización sin fines de lucro de derechos digitales Electronic Frontier Foundation, que advierte sobre el control de la industria por parte de empresas con dinero o conexiones influyentes. Quizás como respuesta, el marco presentado ayer recomienda normas estrictas de conflicto de intereses para el personal del organismo de supervisión de la inteligencia artificial.

El nuevo marco de Blumenthal y Hawley para la futura regulación de la inteligencia artificial deja algunas preguntas sin respuesta. Aún no está claro si la supervisión de la inteligencia artificial vendría de una agencia federal de nueva creación o de un grupo dentro de una agencia federal existente. Tampoco han especificado qué criterios se utilizarían para determinar si un caso de uso específico se define como de alto riesgo y requiere una licencia para su desarrollo.

Michael Khoo, director del programa de desinformación climática en la organización sin fines de lucro ambiental Amigos de la Tierra, dice que la nueva propuesta parece ser un buen primer paso, pero que se necesitan más detalles para evaluar adecuadamente sus ideas. Su organización forma parte de una coalición de organizaciones ambientales y de responsabilidad tecnológica que, a través de una carta a Schumer y un cartel móvil que circulará alrededor del Congreso la próxima semana, insta a los legisladores a evitar que los proyectos de inteligencia artificial intensivos en energía empeoren el cambio climático.

Khoo está de acuerdo con la solicitud del marco legislativo de documentación y divulgación pública de los impactos adversos, pero dice que los legisladores no deben permitir que la industria defina lo que se considera perjudicial. También quiere que los miembros del Congreso exijan que las empresas divulguen cuánta energía se requiere para entrenar e implementar sistemas de inteligencia artificial y que consideren el riesgo de acelerar la propagación de desinformación al evaluar el impacto de los modelos de inteligencia artificial.

El marco legislativo muestra al Congreso considerando un enfoque más estricto para la regulación de la IA que el adoptado hasta ahora por el gobierno federal, el cual ha lanzado un marco de gestión de riesgos voluntario y una carta de derechos de IA no vinculante. La Casa Blanca llegó a un acuerdo voluntario en julio con ocho grandes empresas de IA, incluyendo a Google, Microsoft y OpenAI, pero también prometió que se implementarán normas más firmes. Durante una sesión informativa sobre el pacto de empresas de IA, el asesor especial de la Casa Blanca para la IA, Ben Buchanan, afirmó que mantener a la sociedad a salvo de los daños causados por la IA requerirá legislación.