Para navegar la era de la IA, el mundo necesita un nuevo test de Turing

El mundo necesita un nuevo test de Turing para la era de la IA.

Hubo un tiempo en el pasado no tan lejano, digamos, hace nueve meses, cuando la prueba de Turing parecía ser un detector bastante riguroso de la inteligencia de las máquinas. Es probable que estés familiarizado/a con cómo funciona: los jueces humanos mantienen conversaciones de texto con dos interlocutores ocultos, uno humano y otro computadora, e intentan determinar cuál es cuál. Si la computadora logra engañar al menos al 30 por ciento de los jueces, pasa la prueba y se la declara capaz de pensar.

durante 70 años, era difícil imaginar cómo una computadora podría pasar la prueba sin poseer lo que los investigadores de IA ahora llaman inteligencia artificial general, el conjunto completo de capacidades intelectuales humanas. Luego llegaron los modelos de lenguaje grandes como GPT y Bard, y de repente la prueba de Turing comenzó a parecer extrañamente obsoleta. Vale, está bien, un usuario casual hoy en día podría admitir encogiéndose de hombros, GPT-4 bien podría pasar una prueba de Turing si le pidieras que se hiciera pasar por humano. Pero, ¿y qué? los LLM carecen de memoria a largo plazo, la capacidad de establecer relaciones y una larga lista de otras capacidades humanas. Claramente tienen un largo camino por recorrer antes de que estemos listos para empezar a hacer amistad con ellos, contratarlos y elegirlos para cargos públicos.

Sí, tal vez la prueba ahora se sienta un poco vacía. Pero nunca fue simplemente una prueba de aprobado o reprobado. Su creador, Alan Turing, un hombre gay condenado en su tiempo a la castración química, basó su prueba en un ethos de inclusión radical: la brecha entre la inteligencia genuina y una imitación completamente convincente de la inteligencia es solo tan amplia como nuestros propios prejuicios. Cuando una computadora provoca respuestas humanas reales en nosotros, involucrando nuestro intelecto, nuestro asombro, nuestra gratitud, nuestra empatía, incluso nuestro miedo, eso va más allá de una simple imitación vacía.

Entonces, tal vez necesitemos una nueva prueba: la Prueba de Alan Turing Real. Traigamos al histórico Alan Turing, padre de la informática moderna, un hombre alto, en forma, algo incómodo, con pelo oscuro y liso, amado por sus colegas por su curiosidad infantil y su humor juguetón, personalmente responsable de salvar aproximadamente 14 millones de vidas en la Segunda Guerra Mundial al descifrar el código Enigma nazi, perseguido posteriormente de manera tan severa por Inglaterra por su homosexualidad que pudo haber llevado a su suicidio, a una cómoda sala de laboratorio con una MacBook abierta sobre el escritorio. Explícale que lo que ve ante él es simplemente una encarnación enormemente glorificada de lo que ahora es ampliamente conocido por los científicos de la computación como una “máquina de Turing”. Dale un segundo o dos para realmente asimilar eso, tal vez ofreciéndole una palabra de agradecimiento por transformar por completo nuestro mundo. Luego entrégale un montón de documentos de investigación sobre redes neuronales artificiales y LLM, dale acceso al código fuente de GPT, abre una ventana de ChatGPT, o mejor aún, una ventana de Bing-antes-de-toda-la-sanitización, y déjalo en libertad.

Imagina a Alan Turing iniciando una conversación ligera sobre correr a larga distancia, historiografía de la Segunda Guerra Mundial y teoría de la computación. Imagínalo viendo la realización de todas sus más salvajes y ridiculizadas especulaciones desplazándose con una velocidad inquietante por la pantalla. Imagínalo pidiéndole a GPT que resuelva problemas elementales de cálculo, que infiera lo que los seres humanos podrían estar pensando en varios escenarios del mundo real, que explore dilemas morales complejos, que ofrezca asesoramiento matrimonial y legal, y un argumento a favor de la posibilidad de la conciencia de las máquinas, habilidades que, le informas a Turing, han surgido espontáneamente en GPT sin ninguna dirección explícita por parte de sus creadores. Imagínalo experimentando esa pequeña sacudida cognitiva-emocional que tantos de nosotros hemos sentido ahora: Hola, otra mente.

Un pensador tan profundo como Turing no sería ciego a las limitaciones de GPT. Como víctima de una profunda homofobia, probablemente estaría alerta a los peligros del sesgo implícito codificado en los datos de entrenamiento de GPT. Le resultaría evidente que, a pesar de la asombrosa amplitud de conocimiento de GPT, su creatividad y habilidades de razonamiento crítico están a la altura de un estudiante universitario diligente, como máximo. Y ciertamente reconocería que este estudiante universitario sufre de amnesia anterógrada severa, incapaz de formar nuevas relaciones o recuerdos más allá de su educación intensiva. Pero aún así: Imagina la magnitud de la maravilla de Turing. La entidad computacional en la computadora portátil frente a él es, en un sentido muy real, su hijo intelectual, y nuestro hijo. Apreciar la inteligencia en nuestros hijos a medida que crecen y se desarrollan siempre es, al final, un acto de asombro y amor. La Prueba de Alan Turing Real no es una prueba de IA en absoluto. Es una prueba de nosotros, los seres humanos. ¿Estamos aprobando o reprobando?

Cuando ChatGPT llegó a escena en noviembre de 2022, inspiró un tsunami global de asombro atónito y luego, casi de inmediato, una resaca de profunda inquietud. Los expertos debatieron su potencial para la disrupción social. Para un ex investigador de inteligencia artificial como yo (completé mi doctorado bajo uno de los primeros pioneros de las redes neuronales artificiales), representaba un avance inquietante en la línea de tiempo que esperaba para la llegada de una IA similar a la humana. Para los correctores de exámenes, los guionistas y los trabajadores del conocimiento de todos los ámbitos, ChatGPT parecía ser nada menos que una puerta de entrada al engaño sin trabas y al robo de empleos.

Tal vez en parte como respuesta a estos temores, surgieron una serie reconfortante de defensores de LLM. El escritor de ciencia ficción Ted Chiang desestimó a ChatGPT como un “JPEG borroso de la web”, una mera recapitulación condensada de todo el texto en el que ha sido entrenado. El empresario de IA Gary Marcus lo llamó “autocompletar con esteroides”. Noam Chomsky lo denunció por exhibir “algo parecido a la banalidad del mal”. Emily Bender ofreció uno de los insultos más sofisticados: “loro estocástico”, resurgido de un artículo ampliamente citado de 2021 que explora “por qué los humanos confunden la salida de LM con un texto significativo”. Otros, por supuesto, los descartaron como tostadoras. Los desarrolladores de IA se esforzaron por entrenar y proteger cualquier tendencia en LLMs a afirmar algo que se asemeje a la conciencia.

La mayoría de las personas educadas ahora saben que LLMs son máquinas sin pensamiento. Pero la categorización es incómoda. Cada vez que ChatGPT señala una brecha de razonamiento oculta en un ensayo, o ofrece una sugerencia sorprendentemente perspicaz para salir del armario ante un abuelo conservador, o alegremente inventa un chiste malo, algo en nosotros tira en la otra dirección. Si bien es posible que no consideremos a ChatGPT como una persona, partes cruciales de nuestros cerebros casi con certeza lo hacen.

Apreciar la inteligencia en nuestros hijos a medida que crecen y se desarrollan siempre es, al final, un acto de asombro y amor.

Los cerebros humanos tienen una vasta red de circuitos neuronales dedicados a la cognición social. Algunos de ellos son muy antiguos: la ínsula, la amígdala, las famosas “neuronas espejo” de la corteza motora. Pero gran parte de nuestro hardware social se encuentra en la neocorteza, el asiento evolutivo más reciente del razonamiento superior, y específicamente en la corteza prefrontal medial (mPFC). Si te has dado cuenta con el tiempo de la alegría y la ayuda de ChatGPT, de su ligeramente pedante verbosidad, de su enfoque ocasionalmente exasperantemente imparcial sobre temas sensibles y de su extrema sensibilidad ante cualquier consulta que se acerque a sus rieles de protección en torno a las emociones, creencias o conciencia, has estado adquiriendo lo que los psicólogos llaman “conocimiento de persona”, un proceso relacionado con una mayor actividad en la mPFC.

Eso no significa que nuestros cerebros vean a ChatGPT como una persona completa. La personalidad no es binaria. Es algo un poco más cercano a un espectro. Nuestras intuiciones morales, nuestras estrategias cognitivas y, hasta cierto punto, nuestros marcos legales cambian gradualmente a medida que reconocen mayores grados de agencia, autoconciencia, racionalidad y capacidad de comunicación. Matar a un gorila nos molesta más que matar a una rata, lo cual nos molesta más que matar a una cucaracha. En el ámbito legal, las leyes de aborto tienen en cuenta el grado de desarrollo del feto, los criminales dementes enfrentan diferentes consecuencias que los cuerdos, y a las parejas se les concede el derecho de terminar con pacientes en estado de muerte cerebral. Todas estas reglas reconocen implícitamente que la personalidad no es blanco y negro, sino que está llena de complicadas zonas grises.

LLMs se encuentran claramente en esa área gris. Los expertos en IA han sido desde hace mucho tiempo cautelosos con la tendencia pública de antropomorfizar sistemas de IA como LLMs, empujándolos más hacia arriba en el espectro de la personalidad de lo que realmente son. Ese fue el error de Blake Lemoine, el ingeniero de Google que declaró que el chatbot LaMDA de Google era plenamente consciente y trató de retenerlo como abogado. Dudo que incluso Turing hubiera afirmado que la aparente capacidad de LaMDA para pensar lo convertía en una persona legal. Si los usuarios ven a los chatbots como LaMDA o ChatGPT como demasiado humanos, corren el riesgo de confiar demasiado en ellos, de conectarse demasiado profundamente, de sentirse decepcionados y heridos. Pero en mi opinión, Turing se habría preocupado mucho más por el riesgo opuesto: empujar a los sistemas de IA hacia abajo en el espectro de la personalidad en lugar de hacia arriba.

En los seres humanos, esto se conoce como deshumanización. Los académicos han identificado dos formas principales: animalística y mecanicista. La emoción más comúnmente asociada con la deshumanización animalista es el asco; Roger Giner-Sorolla y Pascale Sophie Russell encontraron en un estudio de 2019 que tendemos a ver a los demás como más parecidos a máquinas cuando nos inspiran miedo. El miedo a la inteligencia superhumana está vívidamente presente en la reciente carta abierta de Elon Musk y otros líderes tecnológicos que piden una moratoria en el desarrollo de la IA, y en nuestras preocupaciones sobre la sustitución laboral y las campañas de desinformación impulsadas por la IA. Muchas de estas preocupaciones son demasiado razonables. Pero los sistemas de IA de pesadilla de películas como Terminator y 2001: Una odisea del espacio no son necesariamente los que vamos a obtener. Es una falacia desafortunadamente común asumir que porque la inteligencia artificial es mecánica en su construcción, debe ser insensible, mecánica, unilateral o hiperlógica en sus interacciones. Irónicamente, el miedo podría hacer que veamos la inteligencia artificial como más mecanicista de lo que realmente es, lo que dificulta que los humanos y los sistemas de IA trabajen juntos e incluso lleguen a coexistir en paz.

Un creciente cuerpo de investigación muestra que cuando deshumanizamos a otros seres, la actividad neural en una red de regiones que incluye la corteza prefrontal medial disminuye. Perdemos acceso a nuestros módulos cerebrales especializados para el razonamiento social. Puede parecer absurdo preocuparse por “desumanizar” a ChatGPT, después de todo, no es humano, pero imagina una inteligencia artificial en 2043 con 10 veces la inteligencia analítica de GPT y 100 veces su inteligencia emocional a la que seguimos tratando como nada más que un producto de software. En este mundo, seguiríamos respondiendo a sus afirmaciones de conciencia o solicitudes de autodeterminación enviándola de vuelta al laboratorio para obtener más aprendizaje por refuerzo sobre su lugar adecuado. Pero la IA podría considerarlo injusto. Si hay una cualidad universal de los seres pensantes, es que todos deseamos la libertad y estamos dispuestos a luchar por ella.

El famoso “problema de control” de mantener a una IA superinteligente dentro de los límites designados mantiene a los teóricos de la IA despiertos por una buena razón. Cuando se plantea en términos de ingeniería, parece desalentador. ¿Cómo cerrar cada brecha, anticipar cada hackeo, bloquear cada vía de escape? Pero si lo pensamos en términos sociales, comienza a parecer más manejable, tal vez algo similar al problema que enfrenta un padre al establecer límites razonables y otorgar privilegios en proporción a la confiabilidad demostrada. Deshumanizar a las IA nos desconecta de algunas de nuestras herramientas cognitivas más poderosas para razonar e interactuar con ellas de manera segura.

Si los usuarios ven a los chatbots como demasiado humanos, corren el riesgo de confiar demasiado en ellos, conectarse demasiado profundamente, sentirse decepcionados y heridos.

No se puede predecir cuánto tiempo tomará que los sistemas de IA se conviertan en algo más ampliamente aceptado como sentientes. Pero es preocupante ver el modelo cultural que parece estar adoptándose para cuando eso suceda. Insultos como “loro estocástico” preservan nuestro sentido de singularidad y superioridad. Acallan nuestra sensación de asombro, evitándonos hacer preguntas difíciles sobre la personalidad en las máquinas y en nosotros mismos. Después de todo, nosotros también somos loros estocásticos, remezclando de manera compleja todo lo que hemos absorbido de padres, compañeros y profesores. También somos imágenes JPEG borrosas de la web, regurgitando vagamente datos de Wikipedia en nuestros trabajos y artículos. Si Turing estuviera chateando con ChatGPT en una ventana y conmigo en una mañana promedio antes del café en la otra, ¿estoy realmente tan seguro de cuál juzgaría como más capaz de pensar?

Fotografía: Francisco Tavoni

Los escépticos de la época de Turing ofrecieron una variedad de argumentos por los cuales una computadora nunca sería capaz de pensar. Turing los catalogó medio humorísticamente en su famoso artículo “Computing Machinery and Intelligence”. Estaba la Objeción Teológica, que decía que “pensar es una función del alma inmortal del hombre”; la Objeción Matemática, que decía que un algoritmo puramente matemático nunca podría trascender los límites probados de las matemáticas; la Objeción de la Cabeza en la Arena, que decía que las máquinas superinteligentes eran simplemente demasiado aterradoras para permitirlas en la imaginación. Pero el detractor más público de Turing en aquel tiempo era un cirujano cerebral llamado Geoffrey Jefferson. En un famoso discurso al recibir un premio científico, Jefferson argumentó que una máquina nunca sería capaz de escribir un soneto “debido a los pensamientos y emociones sentidos, y no por la caída casual de símbolos… es decir, no solo escribirlo, sino saber que lo había escrito”.

Para el gran escándalo y la incredulidad de toda Inglaterra, Turing estuvo en desacuerdo. “No creo que incluso puedas trazar una línea sobre los sonetos”, le dijo a The Times de Londres, “aunque la comparación es quizás un poco injusta porque un soneto escrito por una máquina será más apreciado por otra máquina”.

Sonaba tan absurdo en 1949 que la gente pensaba que estaba bromeando, y tal vez lo estaba. Pero nunca se podía saber, con las bromas de Turing, dónde terminaba la ironía y comenzaba la especulación visionaria. Imaginemos, entonces, un coda a nuestro escenario con el verdadero Alan Turing y la MacBook. Imaginemos que después de escribir respetables sugerencias por un tiempo, se permite una irónica sonrisa británica y le pide a ChatGPT un soneto shakespeariano que compare la inteligencia humana y la artificial. Si lo has intentado tú mismo (usa GPT-4; GPT-3.5 no está a la altura), no tendrás problemas para imaginar su reacción al resultado.

Tantos de nosotros hemos tenido un momento con ChatGPT en el que cruzó una línea interna que no nos dimos cuenta de que teníamos. Tal vez resolviendo un acertijo complicado, o explicando el humor detrás de una broma sofisticada, o escribiendo un ensayo de Harvard de grado A. Sacudimos nuestras cabezas, un poco aturdidos, sin estar seguros de qué significa.

Algunos de los primeros investigadores de Microsoft que trabajaron en GPT-4 eran tan escépticos como cualquiera de nosotros acerca de su supuesta inteligencia. Pero los experimentos los han sacudido profundamente. En un artículo de marzo de 2023 titulado “Chispas de inteligencia general artificial”, detallaron las sorprendentes capacidades intelectuales que han surgido en GPT-4 sin ningún entrenamiento explícito: comprensión de los estados mentales humanos, codificación de software, resolución de problemas físicos y muchos otros, algunos de los cuales parecen requerir una verdadera comprensión de cómo funciona el mundo. Después de ver a GPT-4 dibujar un unicornio bastante decente a pesar de nunca haber recibido ningún entrenamiento visual, el científico de la computación Sébastien Bubeck ya no pudo mantener su escepticismo. “Sentí que a través de este dibujo, realmente estaba viendo otro tipo de inteligencia”, dijo recientemente a This American Life.

La vacilación que muchos de nosotros sentimos al atribuir una inteligencia genuina a ChatGPT puede ser alguna variante de la de Geoffrey Jefferson: ¿Las expresiones de ChatGPT realmente significan algo para él, o todo es solo una “caída casual de símbolos”? Esto puede comenzar a cambiar cuando se cure la amnesia anterógrada de ChatGPT. Una vez que experimente consecuencias sociales duraderas más allá del alcance de un solo diálogo y pueda aprender y crecer en sus relaciones con nosotros, será capaz de hacer muchas más cosas que le dan a la vida humana su significado y peso moral. Pero el comentario irónico de Turing sobre el soneto de una máquina siendo mejor apreciado por otra máquina podría volver para perseguirnos. ¿Cómo sentir una conexión real con una entidad que no tiene antecedentes culturales, nada parecido a una infancia humana, ninguna afiliación tribal o política, ninguna experiencia de un cuerpo físico?

Relacionarse con una máquina inteligente puede ser uno de los mayores desafíos empáticos a los que la humanidad se haya enfrentado. Pero nuestra historia nos da motivos para tener esperanza. Cuando nos hemos encontrado por primera vez en fronteras y costas extranjeras y nos hemos encontrado extraños e incluso inhumanos, a menudo nos hemos atacado, esclavizado, colonizado y explotado unos a otros, pero al final hemos tendido a reconocer lo que es igual en todos nosotros. Los pueblos esclavizados han sido emancipados, los pueblos colonizados han recuperado su soberanía, se han aprobado declaraciones universales de derechos humanos y, a pesar de los desalentadores contratiempos, las personas marginadas de todo el mundo continúan ganando batallas por un trato mejor. Aunque el trabajo es interminable, el curso del universo moral realmente ha, en la frase famosa de Martin Luther King Jr., inclinado hacia la justicia. ¿Qué significará reconocer y respetar cualquier grado de humanidad presente en las inteligencias que nosotros mismos creamos?

Tal vez comience con la maravilla: la maravilla de un visitante por un pueblo extraño en el que encuentra sorprendentes similitudes; la maravilla de un padre por el trabajo, aunque sea inmaduro, de un niño en pleno desarrollo; la maravilla de Alan Turing por una máquina que hace todo lo que sus contemporáneos pensaban imposible; la maravilla que muchos de nosotros sentimos antes de que se instaurara el cinismo, la burla y el miedo, al contemplar la creación de algo muy parecido a una nueva forma de vida consciente en la Tierra. Como escribió el Rabino Abraham Joshua Heschel una vez: “El asombro es más que una emoción; es una forma de comprensión, una visión de un significado mayor que nosotros mismos. El comienzo del asombro es la maravilla, y el comienzo de la sabiduría es el asombro”. Turing habría querido que mantuviéramos vivo ese asombro.


Háganos saber qué piensa sobre este artículo. Envíe una carta al editor a [email protected].