Los académicos de Oxford advierten que hay un gran riesgo al no saber qué está construyendo OpenAI en la nube.

Los académicos de Oxford advierten del riesgo de desconocer los proyectos de OpenAI en la nube.

Uno de los eventos fundamentales en inteligencia artificial (IA) en 2023 fue la decisión de OpenAI, el creador de ChatGPT, de revelar casi ninguna información sobre su último modelo de lenguaje grande (LLM), GPT-4, cuando la compañía presentó el programa en marzo.

Ese repentino cambio a la secrecía se está convirtiendo en un importante problema ético para la industria tecnológica, porque nadie sabe, excepto OpenAI y su socio Microsoft, qué está sucediendo dentro de la caja negra en su nube informática.

También: Con GPT-4, OpenAI opta por la secrecía en lugar de la divulgación

La obfuscación es el tema de un informe este mes de los académicos Emanuele La Malfa de la Universidad de Oxford y colaboradores del Instituto Alan Turing y la Universidad de Leeds.

En un documento publicado en el servidor de preimpresión arXiv, La Malfa y sus colegas exploran el fenómeno de “Modelos de Lenguaje como Servicio” (LMaaS), refiriéndose a LLMs que se alojan en línea, ya sea detrás de una interfaz de usuario o a través de una API. Los principales ejemplos de ese enfoque son ChatGPT de OpenAI y GPT-4.

“La presión comercial ha llevado al desarrollo de LMs grandes y de alto rendimiento, accesibles exclusivamente como servicio para los clientes, que devuelven cadenas o tokens en respuesta a la entrada textual del usuario, pero para los cuales no se dispone de información sobre la arquitectura, implementación, procedimiento de entrenamiento o datos de entrenamiento, ni se ofrece la capacidad de inspeccionar o modificar sus estados internos”, escriben los autores.

Diferencias entre modelos de lenguaje de código abierto y LMaaS. Un usuario de programas de código abierto tiene un control completo, mientras que los clientes de un servicio LMaaS tienen que conformarse con lo que obtienen a través de un navegador o una API.

Esas restricciones de acceso “inherentes a LMaaS, combinadas con su naturaleza de caja negra, están en conflicto con la necesidad del público y la comunidad de investigación de entender, confiar y controlarlos mejor”, observan. “Esto causa un problema significativo en el núcleo del campo: los modelos más potentes y riesgosos son también los más difíciles de analizar”.

El problema ha sido señalado por muchas partes, incluidos los competidores de OpenAI, especialmente aquellos que confían en el código de código abierto para superar el código de código cerrado. Por ejemplo, Emad Mostaque, CEO de la startup de IA generativa Stability.ai, que produce herramientas como el generador de imágenes Stable Diffusion, ha dicho que ninguna empresa puede confiar en programas de código cerrado como GPT-4.

“Los modelos abiertos serán esenciales para los datos privados”, dijo Mostaque durante una pequeña reunión de prensa y ejecutivos en mayo. “Necesitas saber todo lo que hay dentro; estos modelos son muy poderosos”.

También: GPT-3.5 vs GPT-4: ¿Vale la pena la suscripción a ChatGPT Plus?

La Malfa y su equipo revisan la literatura de los diversos modelos de lenguaje e identifican cómo la obfuscación impide una auditoría de los programas en cuatro factores críticos: accesibilidad, replicabilidad, comparabilidad y confiabilidad.

Los autores señalan que estas preocupaciones son un nuevo desarrollo en la ética de la IA: “Estos problemas son específicos del paradigma LMaaS y distintos de las preocupaciones preexistentes relacionadas con los modelos de lenguaje”.

También: Por qué el código abierto es esencial para aliviar los temores de la IA, según el fundador de Stability.ai

La accesibilidad se refiere a la cuestión de mantener el código en secreto, lo cual beneficia desproporcionadamente a las grandes empresas con grandes presupuestos de I+D, alegan los escritores.

“Con el poder computacional distribuido de manera desigual y concentrado en un número reducido de empresas”, escriben, “aquellos con una ventaja tecnológica pero no computacional se enfrentan a un dilema: mientras que la liberación del código de su LMaaS les beneficiaría en términos de exposición en el mercado y contribución a su código fuente por parte de la comunidad, liberar el código que alimenta un modelo podría quemar rápidamente su ventaja competitiva en favor de jugadores con mayores recursos computacionales”.

Además, la fijación de precios uniforme de los programas LMaaS significa que las personas en economías menos desarrolladas están en desventaja para acceder a las herramientas. “Un punto de partida para mitigar estos problemas es analizar el impacto de LMaaS y, más en general, de los servicios de inteligencia artificial de pago por uso, como una tecnología autónoma, omnipresente y disruptiva”, sugieren.

Otro problema es la brecha cada vez mayor en la forma en que se capacitan los LLM: los comerciales pueden reutilizar las indicaciones de los clientes y, de esta manera, destacarse de los programas que solo utilizan datos públicos, observan los autores.

También: ¿Cómo funciona ChatGPT?

Las licencias comerciales de LMaaS, escriben, “otorgan a las empresas el derecho de utilizar indicaciones para proporcionar, mantener y mejorar sus servicios”, de modo que no hay una línea de base común de datos de capacitación de la que todos se beneficien.

Ofrecen un gráfico (abajo) que evalúa la disparidad en cuanto a si los modelos de lenguaje recopilan indicaciones de los clientes para su capacitación y “ajuste fino”, que es una etapa que en algunos casos mejora las habilidades de un modelo de lenguaje, y si permiten a los usuarios optar por no participar.

Comparación de si los modelos de lenguaje ofrecen la opción de exclusión a sus clientes con respecto a los datos, y si utilizan los datos para capacitar y ajustar finamente sus modelos de caja negra.

Después de describir detalladamente los diversos riesgos, La Malfa y su equipo proponen “una agenda tentativa” para abordar las cuatro áreas, instando a que “necesitamos trabajar como comunidad para encontrar soluciones que permitan a los investigadores, legisladores y miembros del público confiar en LMaaS”.

En primer lugar, recomiendan que “las empresas deberían publicar el código fuente” de sus programas de LMaaS, si no para el público en general, entonces “LMaaS debería al menos estar disponible para auditores/evaluadores/equipos de pruebas con restricciones para compartir”.

También: ¿Los bots de IA están aprobando los exámenes de la escuela de medicina, pero deberían convertirse en tu médico?

Las empresas, proponen, no deberían eliminar por completo los modelos de lenguaje antiguos a medida que implementan nuevos. O al menos, “todos los parámetros que conforman un modelo deberían estar cifrados y el mantenedor del modelo debería ofrecer un registro de ‘compromisos del modelo’ al usuario, a medida que el mantenedor actualiza el modelo”. Y el campo, incluyendo revistas y conferencias, debería “desalentar el uso de modelos” que no sigan tales precauciones.

Para el benchmarking, es necesario desarrollar herramientas para probar qué elementos ha asimilado un LMaaS de sus indicaciones, para que se pueda establecer una línea base precisa.

Claramente, con LMaaS, el tema de la ética en la IA ha entrado en una nueva fase, en la que la información crítica se mantiene bajo llave, lo que dificulta la toma de decisiones éticas para todos más que en el pasado.