No preguntes a robots tontos si la IA destruirá a la humanidad

Don't ask dumb robots if AI will destroy humanity.

A principios de este mes, varios medios prominentes publicaron noticias de que la inteligencia artificial no representará un peligro para la humanidad. ¿La fuente de estas noticias tranquilizadoras? Un grupo de cabezas de robots humanoides conectadas a simples chatbots.

Las historias de noticias surgieron de un panel en una conferencia de las Naciones Unidas en Ginebra llamada IA para el bien, donde varios androides aparecieron junto a sus creadores. Se invitó a los periodistas a hacer preguntas a los robots, que incluían a Sophia, una máquina creada por Hanson Robotics que se ha hecho famosa por aparecer en programas de entrevistas e incluso, de manera extraña, obtener un estatus legal como persona en Arabia Saudita.

Las preguntas incluían si la IA destruiría a la humanidad o robaría empleos. Sus respuestas fueron posibles gracias a la tecnología de chatbot, algo similar a la que impulsa a ChatGPT. Pero a pesar de las conocidas limitaciones de tales bots, las respuestas de los robots se informaron como si fueran las opiniones significativas de entidades autónomas e inteligentes.

¿Por qué sucedió esto? Los robots que pueden imitar visualmente las expresiones humanas desencadenan una respuesta emocional en los observadores porque estamos tan preparados para captar tales señales. Pero permitir que lo que no es más que una marioneta avanzada disfrazar las limitaciones de la IA actual puede confundir a las personas que intentan entender la tecnología o las preocupaciones recientes sobre los problemas que puede causar. Me invitaron a la conferencia de Ginebra, y cuando vi a Sophia y otros robots listados como “oradores”, perdí interés.

Es frustrante ver tal tontería en un momento en que expertos más confiables advierten sobre los riesgos actuales y futuros que plantea la IA. Los algoritmos de aprendizaje automático ya están exacerbando los sesgos sociales, difundiendo desinformación y aumentando el poder de algunas de las mayores corporaciones y gobiernos del mundo. Los principales expertos en IA temen que el ritmo de progreso pueda producir algoritmos que sean difíciles de controlar en cuestión de años.

Hanson Robotics, la empresa que fabrica a Sophia y otros robots realistas, es impresionantemente hábil en la construcción de máquinas que imitan las expresiones humanas. Hace varios años, visité la sede de la empresa en Hong Kong y me reuní con el fundador David Hanson, quien anteriormente trabajó en Disney, durante el desayuno. El laboratorio de la empresa era como algo sacado de Westworld o Blade Runner, con robots desconectados mirando tristemente hacia la distancia, caras marchitas caídas en estantes y prototipos tartamudeando las mismas palabras una y otra vez en un bucle infinito.

Fotografía: Will Knight

Hanson y yo hablamos sobre la idea de agregar inteligencia real a estas máquinas evocadoras. Ben Goertzel, un conocido investigador de IA y CEO de SingularityNET, lidera un esfuerzo para aplicar avances en el aprendizaje automático al software dentro de los robots de Hanson que les permite responder al habla humana.

La IA detrás de Sophia a veces puede proporcionar respuestas aceptables, pero la tecnología no es tan avanzada como un sistema como GPT-4, que impulsa la versión más avanzada de ChatGPT y costó más de $100 millones crearlo. Y, por supuesto, incluso ChatGPT y otros programas de IA de vanguardia no pueden responder de manera sensata a preguntas sobre el futuro de la IA. Puede ser mejor pensar en ellos como imitadores preternaturalmente conocedores y talentosos que, aunque capaces de razonamiento sorprendentemente sofisticado, son profundamente defectuosos y tienen un “conocimiento” limitado del mundo.

Las “entrevistas” engañosas de Sophia y compañía en Ginebra son un recordatorio de cómo la antropomorfización de los sistemas de IA puede desviarnos. La historia de la IA está llena de ejemplos de humanos sobreextrapolando a partir de nuevos avances en el campo.

En 1958, en los albores de la inteligencia artificial, The New York Times escribió sobre uno de los primeros sistemas de aprendizaje automático, una red neuronal artificial rudimentaria desarrollada para la Marina de los Estados Unidos por Frank Rosenblatt, un psicólogo de Cornell. “La Marina reveló el embrión de una computadora electrónica hoy que se espera que pueda caminar, hablar, ver, escribir, reproducirse y ser consciente de su existencia”, informó el Times, una afirmación audaz sobre un circuito capaz de aprender a detectar patrones en 400 píxeles.

Si miras hacia atrás en la cobertura del Deep Blue de IBM que juega al ajedrez, el campeón Go player AlphaGo de DeepMind y muchos de los avances de la última década en aprendizaje profundo, que descienden directamente de la máquina de Rosenblatt, verás mucho de lo mismo: personas tomando cada avance como si fuera un signo de una inteligencia más profunda y similar a la humana.

Esto no quiere decir que estos proyectos, o incluso la creación de Sophia, no sean hazañas notables o pasos potenciales hacia máquinas más inteligentes. Pero es importante tener una visión realista sobre las capacidades de los sistemas de IA cuando se trata de evaluar el progreso de esta poderosa tecnología. Para entender los avances de la IA, al menos podemos dejar de hacer preguntas tontas a marionetas animatrónicas.