IA y el desafío de la recursividad

Las versiones GPT-3.5 y GPT-4 de OpenAI fallaron al enfrentarse a niveles cada vez más complejos de esta tarea informática clave, lo que indica una falla fundamental en su diseño.

La IA generativa no cumple con esta capacidad de pensamiento humano tan común.

russian-dollgettyimages-1388603518
Foto de Getty Images

Entre los conceptos sublimes que los humanos comprenden intuitivamente se encuentra el concepto de recursión, donde algo contiene una repetición de sí mismo que se extiende hasta el infinito. Cualquier “película dentro de una película” podría ser un ejemplo de recursión. Las famosas “muñecas rusas” Matryoshka, donde cada muñeca de madera se abre para revelar una muñeca más pequeña, es un ejemplo entrañable de recursión.

Una imagen tuya sosteniendo una imagen tuya en la cual estás sosteniendo una imagen tuya, ad infinitum, es una fantasía visual recursiva clásica que crea deleite en cualquier persona.

🌟 También: 2024 podría ser el año en que la IA aprenda en la palma de tu mano

Pero cuando se trata de programas de inteligencia artificial (IA), incluidos los programas de IA generativa como ChatGPT, la recursión presenta un desafío. Investigadores de la Universidad de Illinois Urbana-Champaign descubrieron que la IA tiene dificultades para manejar la recursión de manera consistente, lo que afecta su rendimiento en diversas tareas. Por ejemplo, la IA puede malinterpretar código con bloques anidados o producir corchetes desequilibrados en tareas de programación.

Según el autor principal Shizhuo Dylan Zhang y sus colegas en su artículo “Los modelos basados en transformadores aún no son perfectos para aprender a emular la recursión estructural”, publicado este mes en el servidor arXiv preprint, esta limitación tiene implicaciones significativas para la capacidad de la IA de procesar tareas de programación complejas que involucran patrones recursivos.

El desafío de la recursión

Para investigar el impacto de la recursión en los grandes modelos de lenguaje (LLM, por sus siglas en inglés), Zhang y su equipo diseñaron una prueba utilizando GPT-3.5 “Turbo” y GPT-4, los modelos más potentes de OpenAI. Alimentaron a estos modelos con una indicación que contenía un problema de recorrido de árbol, un ejemplo del recorrido de árbol e instrucciones para realizar el recorrido. El objetivo era ver si los modelos podían generar una solución al recorrido junto con una explicación de la regla utilizada.

A medida que aumentaba la profundidad del árbol, el rendimiento de los modelos de lenguaje disminuía. Los autores encontraron que los LLM tienen dificultades para llevar a cabo el paso de “reducción” requerido, es decir, reemplazar un elemento en el árbol con su elemento recursivo para continuar el recorrido. Esta limitación destaca el desafío que enfrentan los LLM para mantener la coherencia algorítmica en secuencias extensas, especialmente en tareas que requieren un orden preciso de las operaciones.

🌟 También: OpenAI presenta un GPT-4 Turbo “más activo”, con reducción de precios, además de nuevos modelos actualizados

Además, los modelos de lenguaje no logran proporcionar una explicación de la regla a partir del ejemplo dado en la indicación que podría llevar a un recorrido exitoso. Zhang y su equipo enfatizan que los LLM tienen dificultades para derivar las reglas correctas a partir de ejemplos en contexto y enfrentan desafíos al realizar reducción paso a paso.

Implicaciones y direcciones futuras

La incapacidad de los LLM para manejar la recursión refleja una falta de razonamiento lógico, según Zhang y su equipo. Realizar cada paso de reducción en un recorrido de árbol requiere un razonamiento lógico sofisticado, que actualmente falta en los programas. Sin embargo, incluso los humanos con habilidades limitadas en lógica formal pueden comprender fácilmente el concepto de recursión y apreciarlo en diversos contextos.

En un nivel más simple, los creadores de los modelos GPT deben reconsiderar su diseño. Los autores plantean la hipótesis de que los modelos no se han optimizado para representar patrones recursivos de manera efectiva. En sus experimentos de aprendizaje en contexto, encontraron que los LLM tienden a extraer reglas no recursivas de los datos y carecen de precisión al realizar una reducción paso a paso. Los autores sugieren que se necesita una mayor optimización para mejorar la capacidad de los modelos para pensar de manera recursiva.

🌟 También: Cómo los avances de la IA de Apple podrían hacer o deshacer el iPhone 16

Este estudio destaca los desafíos planteados por la recursión y su impacto en el rendimiento de los sistemas de IA. Si bien los programas pueden compensar en cierta medida mediante estrategias aprendidas, la ausencia de capacidad de recursión inevitablemente limitará su potencial. Como señalan Zhang y su equipo, esta limitación tiene consecuencias en tareas como la escritura de ensayos y la programación de computadoras, donde los patrones recursivos desempeñan un papel significativo.

Para obtener más información sobre los avances de la IA y sus implicaciones, consulta estos artículos relacionados:

  1. Para la era de la PC de IA, aquí llega una nueva prueba de velocidad
  2. Cómo SuperDuperDB ofrece una entrada fácil a las aplicaciones de IA
  3. AMD Mainstream PC CPUs, Entry Gaming GPUs en CES

Ahora, exploremos algunas preguntas adicionales que puedas tener sobre la IA y la recursividad.

Preguntas y respuestas

P: ¿Existen modelos de IA que puedan manejar la recursividad? R: Si bien el estudio se centra en las limitaciones de modelos de lenguaje específicos como GPT-3.5 “Turbo” y GPT-4, no significa que no haya modelos de IA que puedan manejar la recursividad. Los investigadores continúan trabajando constantemente en mejorar los modelos de IA y futuros avances podrían abordar esta limitación.

P: ¿Cómo podría afectar la incapacidad para manejar la recursividad en el rendimiento de la IA en la redacción de ensayos? R: La redacción de ensayos a menudo requiere la capacidad de estructurar argumentos e ideas de manera coherente y lógica. La recursividad juega un papel en el desarrollo de argumentos complejos y matizados. Si los programas de IA tienen dificultades con la recursividad, es posible que les resulte difícil generar ensayos con un análisis profundo y un flujo lógico.

P: ¿Se pueden entrenar los programas de IA para superar los desafíos de la recursividad? R: Es posible entrenar programas de IA para manejar mejor la recursividad. Sin embargo, se requiere una optimización cuidadosa y ajustes en el proceso de entrenamiento para enfatizar la capacidad de pensar de forma recursiva. La investigación futura puede explorar técnicas para mejorar la comprensión y el procesamiento de la recursividad en los modelos de IA.

P: ¿Qué otras aplicaciones o campos podrían verse afectados por el desafío de la IA con la recursividad? R: Además de la programación y la redacción de ensayos, la dificultad de la IA con la recursividad podría afectar campos que dependen en gran medida de patrones recursivos, como el procesamiento del lenguaje natural, el reconocimiento de imágenes y el análisis de datos. Los algoritmos recursivos desempeñan un papel crucial en varias tareas computacionales, y las limitaciones de la IA en esta área podrían obstaculizar su rendimiento en estos campos.

P: ¿Existen enfoques alternativos para superar la limitación de la IA con la recursividad? R: Los investigadores pueden explorar enfoques híbridos que combinen las fortalezas de los modelos de IA con algoritmos más específicos del dominio diseñados para manejar la recursividad. Al integrar metodologías recursivas en el entrenamiento de los modelos de IA, los desarrolladores pueden mejorar su capacidad para razonar de forma recursiva.

🌟 Si encontraste este artículo informativo e interesante, ¡asegúrate de compartirlo en las redes sociales!

Ahora, te toca a ti. ¿Qué opinas sobre el desafío de la IA con la recursividad? ¿Cómo crees que los avances en los modelos de IA podrían abordar esta limitación? ¡Comparte tus opiniones en los comentarios a continuación!