Investigadores de IA piden una evaluación independiente de la seguridad de la IA.

Más de 200 investigadores destacados de inteligencia artificial piden a las principales empresas tecnológicas que permitan una auditoría de seguridad de sus productos de IA.

“`html

200 investigadores de IA solicitan a OpenAI, Google y Meta permitir evaluaciones de seguridad.

Investigadores de IA se reúnen alrededor de una pantalla gigante, de espaldas al espectador sin caras visibles, con símbolos de advertencia de ‘IA’ en la pantalla, cinematográfico

En un movimiento audaz, más de 200 de los principales investigadores de inteligencia artificial (IA) del mundo han firmado una carta abierta exigiendo que los principales actores de la industria de la IA, como OpenAI, Meta y Google, permitan a expertos externos evaluar y probar de forma independiente la seguridad de sus modelos y sistemas de IA. Si bien estas empresas han implementado normas estrictas para evitar el mal uso y abuso de las tecnologías de IA, los investigadores argumentan que estas medidas están sofocando involuntariamente la investigación independiente crítica destinada a identificar posibles riesgos y vulnerabilidades.

Algunos de los firmantes destacados de la carta incluyen a Percy Liang de la Universidad de Stanford, la periodista ganadora del Pulitzer Julia Angwin, Renée DiResta del Observatorio de Internet de Stanford, la investigadora de ética en IA Deb Raji y el ex asesor gubernamental Suresh Venkatasubramanian.

¿De qué están preocupados los investigadores de IA?

Los investigadores de IA están preocupados de que las políticas corporativas implementadas por las empresas de IA se estén aplicando de manera demasiado amplia, lo que lleva a un “efecto inhibidor” en los auditores. Estas políticas prohíben ciertos tipos de pruebas y prohiben violaciones de derechos de autor o la generación de contenido engañoso. Como resultado, los auditores temen que les cierren sus cuentas o enfrentar repercusiones legales si empujan los límites probando los modelos de IA sin aprobación explícita.

La carta busca advertir a las empresas de IA generativa que no sigan los pasos de las plataformas de redes sociales, que han prohibido efectivamente ciertos tipos de investigaciones destinadas a hacerlas responsables. Los investigadores argumentan que en lugar de un enfoque restrictivo, las empresas deberían proporcionar un “puerto seguro” que permita la auditoría responsable. Además, proponen el establecimiento de canales directos para informar sobre posibles vulnerabilidades encontradas durante las pruebas, en lugar de depender de momentos de “pillada” en redes sociales.

Las tensiones entre las empresas de IA y los investigadores externos

Esta carta abierta llega en medio de crecientes tensiones entre las empresas de IA y los investigadores externos. Por ejemplo, OpenAI afirmó que los intentos de The New York Times de investigar problemas de derechos de autor en ChatGPT constituían “hacking”. Meta, por otro lado, ha actualizado sus términos para amenazar con revocar su último modelo de lenguaje si se usa para infringir propiedad intelectual.

Los investigadores argumentan que el ecosistema actual de supervisión está roto, ya que los momentos impactantes parecen ser solo aquellos en los que los auditores han atrapado a las empresas en situaciones comprometedoras. La carta y su propuesta de política acompañante tienen como objetivo fomentar un entorno más colaborativo para que los investigadores externos evalúen la seguridad y los riesgos potenciales de los sistemas de IA que tienen un profundo impacto en millones de consumidores.

Ideograma

Preguntas y respuestas

P: ¿Cómo beneficiará la evaluación independiente a las empresas de IA?

R: La evaluación independiente mejorará la transparencia y credibilidad de las empresas de IA. Al invitar a expertos externos a evaluar la seguridad de sus modelos y sistemas de IA, estas empresas pueden demostrar su compromiso de garantizar el uso responsable y ético de las tecnologías de IA. Esto genera confianza entre los consumidores y el público en general.

P: ¿Qué riesgos potenciales podría descubrir la evaluación independiente?

R: La evaluación independiente podría descubrir vulnerabilidades y posibles sesgos en los sistemas de IA, resaltar lagunas en las medidas de seguridad e identificar consecuencias no deseadas que pueden surgir del uso de estas tecnologías. Proporciona una oportunidad para abordar proactivamente estos problemas antes de que se conviertan en problemas significativos.

P: ¿Cómo pueden las empresas equilibrar la protección de sus tecnologías de IA y permitir la evaluación independiente?

R: Las empresas pueden alcanzar un equilibrio al implementar pautas y protocolos claros para la evaluación independiente. Pueden proporcionar un marco que permita a los auditores realizar pruebas rigurosas mientras protegen la información sensible y la propiedad intelectual. Esto garantiza que se identifiquen posibles riesgos sin comprometer la ventaja competitiva de la empresa.

Analizando el impacto y los futuros desarrollos

La demanda de evaluación independiente de la seguridad de la IA plantea preguntas importantes sobre la responsabilidad y la responsabilidad de las empresas de IA. Refleja un reconocimiento creciente de que los sistemas de IA no son infalibles y requieren monitoreo y evaluación continuos para garantizar que se alineen con los valores y estándares éticos de la sociedad.

“““html

De aquí en adelante, es probable que las empresas de inteligencia artificial enfrenten una creciente presión para hacer que sus tecnologías sean más transparentes y someterse a evaluaciones externas. Esto podría conducir al establecimiento de normas y regulaciones a nivel de la industria que regulen la evaluación y prueba de los sistemas de inteligencia artificial. Además, las colaboraciones entre empresas de inteligencia artificial e investigadores externos podrían volverse más comunes para fomentar la transparencia, la responsabilidad y el desarrollo responsable de las tecnologías de inteligencia artificial.

Lista de Referencias

¡Gracias por leer! 🤖✨ Comparte tus pensamientos sobre este tema importante en los comentarios a continuación y no olvides compartir este artículo en tus plataformas de redes sociales favoritas para iniciar una discusión entre tus amigos y colegas. Trabajemos juntos para construir un futuro en el que la inteligencia artificial sea segura y responsable.

“`