Nuevas reglas requieren que las compañías de IA informen al gobierno de EE. UU. sobre los avances

La Administración Biden está utilizando la Ley de Producción de Defensa para exigir a las empresas que notifiquen al Departamento de Comercio al iniciar la formación de algoritmos de IA avanzada'.

OpenAI y otras gigantes tecnológicas deberán notificar al gobierno de Estados Unidos antes de embarcarse en nuevos proyectos de IA.

🤖💡 El gobierno de Estados Unidos está a punto de adquirir su propia bola de cristal de IA, gracias a nuevas normas que requerirán a las empresas tecnológicas dar aviso anticipado de avances en modelos de lenguaje grandes. La administración Biden se está preparando para utilizar la Ley de Producción de Defensa para obligar a empresas como OpenAI, Google y Amazon a informar al gobierno cada vez que entrenen un modelo de IA usando una amplia capacidad de computación. Además de los anuncios de avances, las empresas también deberán compartir información sobre pruebas de seguridad. 🚀

El conocimiento es poder

Cuando el ChatGPT de OpenAI apareció de la nada y sorprendió al mundo el año pasado, dejó a muchos magnates en Silicon Valley y Washington, DC, rascándose la cabeza. Ahora, el gobierno de Estados Unidos está decidido a no ser sorprendido de nuevo. La Ley de Producción de Defensa se utilizará para asegurar que el gobierno reciba información crucial sobre avances en tecnología de IA, enfocándose específicamente en modelos de lenguaje grandes como el ChatGPT de OpenAI.

🔭 Los nuevos requisitos otorgarán al gobierno de Estados Unidos acceso a información clave sobre proyectos sensibles de IA emprendidos por gigantes tecnológicos como OpenAI, Google y Amazon. Es como darle al gobierno un pase de backstage al mundo de la IA. Estarán al tanto cuando se comience a trabajar en sucesores del ChatGPT, como el misterioso GPT-4. ¿Finalmente un gobierno que conoce los secretos de la IA? Es como si Santa Claus revelara finalmente la ubicación de su taller. 🎅🏼✨

La seguridad es lo primero

Para que el gobierno pueda monitorear efectivamente estos desarrollos de IA, no se trata solo de adornos y trucos. Los datos de pruebas de seguridad son igualmente importantes. Las empresas deberán revelar información sobre las medidas de seguridad tomadas durante la creación y desarrollo de sus creaciones de IA. El gobierno de Estados Unidos está desempeñando el papel de detective e inspector de seguridad al mismo tiempo. Es como una unidad de CSI de IA, buscando tanto innovación como posibles peligros. 🕵️‍♀️⚠️

Los detalles de las nuevas normas se anunciarán pronto y el Departamento de Comercio liderará la implementación. Gina Raimondo, la Secretaria de Comercio de Estados Unidos, enfatizó la importancia de los nuevos requisitos, declarando: “Estamos utilizando la Ley de Producción de Defensa […] para realizar una encuesta que requiere que las empresas nos compartan cada vez que entrenen un nuevo modelo de lenguaje grande, y compartan con nosotros los resultados: los datos de seguridad”. 📊💡

En una misión

Las nuevas normas forman parte de una orden ejecutiva más amplia emitida por la Casa Blanca en octubre. Bajo esta orden, el Departamento de Comercio tiene la tarea de crear un sistema de reporte para que las empresas proporcionen detalles sobre la capacidad de computación, propiedad de datos y pruebas de seguridad de sus modelos de IA. Es como requerir que las empresas presenten el acta de nacimiento, resultados de pruebas de ADN y evaluaciones psicológicas de sus creaciones de IA. 👶🔬💊

Aunque los requisitos específicos para el reporte de modelos de IA aún no se han definido, el umbral inicial para el reporte se establece alto. Los modelos que superen los 100 septillones (un millón de billones de billones o 10^26) de operaciones de punto flotante por segundo (flop) deberán ser reportados. Sin embargo, los modelos de lenguaje grandes que trabajen con datos de secuenciación de ADN solo deberán superar un umbral 1,000 veces menor. Es como construir una montaña rusa para determinar si es lo suficientemente emocionante, pero diferentes pistas tienen diferentes estándares de emociones fuertes. 🎢🌬️

Manteniendo un ojo en las nubes

Los nuevos requisitos no se limitan solo a las empresas tecnológicas, sino que también se extienden a los proveedores de computación en la nube. Amazon, Microsoft, Google y otros deberán informar al gobierno cuando empresas extranjeras utilicen sus recursos en la nube para entrenar un modelo de lenguaje grande. Para calificar para el reporte, los proyectos extranjeros también deben superar el umbral de 100 septillones de flops. Es como si los proveedores de nube actuaran como espías y le informaran al gobierno cada vez que agentes extranjeros utilicen sus recursos para travesuras de IA. 🕵️‍♂️☁️

Preguntas y respuestas: Curiosidades salvajes satisfechas

P: ¿Por qué el gobierno está implementando estos nuevos requisitos?

R: El gobierno desea estar al tanto de los avances en tecnología de IA, especialmente en modelos de lenguaje grandes. Al tener acceso a esta información, pueden estar al tanto de posibles avances y asegurar que los estándares de seguridad se mantengan.

P: ¿Cómo afectará esto a empresas como OpenAI y Google?

A: Empresas como OpenAI y Google deberán proporcionar información clave sobre sus proyectos de IA, incluido el uso de potencia informática y pruebas de seguridad. Esto podría aumentar la transparencia y la responsabilidad dentro de la industria.

P: ¿Existen preocupaciones sobre el umbral para informar sobre los modelos de IA?

A: Algunos expertos argumentan que el umbral específico puede no ser el mejor indicador de posibles riesgos. Es necesario realizar una evaluación más completa de los modelos de IA, incluido el potencial de comportamiento o resultados problemáticos.

P: ¿Qué otras regulaciones se esperan en el futuro?

A: El gobierno está trabajando en pautas para definir los estándares de seguridad para los modelos de IA. Esto incluye abordar los riesgos relacionados con los abusos de los derechos humanos y los peligros potenciales asociados con la tecnología de IA.

Mirando hacia el futuro

Este audaz movimiento del gobierno de Estados Unidos establece un precedente para que otros países sigan su ejemplo. A medida que la IA continúa avanzando a un ritmo sin precedentes, es crucial que los organismos gubernamentales estén al tanto de estos desarrollos. Mantener un equilibrio entre la innovación y la seguridad es un baile delicado, y los esfuerzos regulatorios como estos son un paso en la dirección correcta.

🔮 El impacto de estos nuevos requisitos podría ir más allá de las fronteras de Estados Unidos. Con otras naciones potencialmente adoptando medidas similares, es posible que el panorama internacional de IA experimente un cambio hacia una mayor transparencia y regulación. Es como una cumbre global de IA donde todos los países se reúnen para compartir sus secretos y mantenerse mutuamente controlados. 🌍👥

Referencias

🌟🔗 ¿Quieres mantenerte al tanto de los últimos avances en IA y las regulaciones gubernamentales? Consulta los enlaces de arriba para obtener más información. ¡Y no olvides compartir este artículo con tus amigos en las redes sociales! Vamos a iniciar una conversación sobre el futuro de la IA juntos. 💬💻