El CEO de Meta, Zuckerberg ‘La IA es quizás la tecnología fundamental más importante de nuestro tiempo

El CEO de Meta, Zuckerberg, afirma que la IA es la tecnología más importante de nuestro tiempo.

El fundador y director ejecutivo de Meta, Mark Zuckerberg, realizó el miércoles una presentación con todo el equipo del grupo de inteligencia artificial de la compañía, incluido el pionero del aprendizaje profundo Yann LeCun, con el tema “Construyendo para el metaverso con IA”.

La presentación está disponible en la página de Facebook del Laboratorio de IA.

La propuesta del Laboratorio de IA, que se muestra en su página de inicio de Facebook, es “A través del poder de la inteligencia artificial, habilitaremos un mundo donde las personas puedan compartir, crear y conectarse fácilmente física y virtualmente, con cualquier persona, en cualquier lugar”.

Zuckerberg calificó a la inteligencia artificial como “quizás la tecnología fundamental más importante de nuestro tiempo”.

Zuckerberg dijo que la compañía está presentando algo llamado “Proyecto CAIRaoke”, que Zuckerberg describió como “un modelo neuronal completamente integral para construir asistentes en dispositivos. Combina el enfoque detrás de BlenderBot con lo último en IA conversacional para ofrecer mejores capacidades de diálogo”.

Dijo que el enfoque de la compañía en IA para el metaverso se compone de dos áreas de investigación en IA: “Percepción egocéntrica” y “una nueva clase completa de modelos generativos de IA”, como lo describió Zuckerberg.

Explicación de Meta sobre el aprendizaje supervisado por sirviente.

Zuckerberg anunció “ningún idioma olvidado”, lo que daría como resultado “un solo modelo que pueda entender cientos de idiomas”.

También anunció lo que llamó “un traductor de voz universal” que ofrecería traducción instantánea. “La IA va a lograr eso dentro de nuestras vidas”, dijo Zuckerberg.

La presentación del día se centró en el tema del “aprendizaje auto-supervisado”, donde una red neuronal se desarrolla acumulando mucha más información sin etiquetas cuidadosamente aplicadas. LeCun explicó a Eliza Strickland de IEEE Spectrum las virtudes del aprendizaje auto-supervisado en un intercambio de correos electrónicos publicado el martes.

Después de la introducción de Zuckerberg, Jérôme Pesenti, líder del equipo de IA, explicó que los modelos auto-supervisados están alcanzando cada vez más al entrenamiento de redes neuronales supervisadas, no solo en modelos de lenguaje sino también en áreas como el reconocimiento de imágenes.

En un video preparado, el Proyecto CAIRaoke se presentó como un asistente inteligente más inteligente que entendería correctamente los comandos hablados. El video se burló de las trampas comunes de la tecnología de asistentes, como cuando no comprende completamente la solicitud hablada por un usuario, a la que denominó “nivel 2”, o asistentes “mecánicos” útiles para “interacciones de un solo disparo”, pero no para “interacciones de múltiples turnos”.

Según la presentación de Meta, producirá asistentes “supercargados”.

En la última parte de la presentación del día, LeCun fue acompañado por el pionero del aprendizaje profundo Yoshua Bengio en una charla organizada por Lex Fridman, para discutir el camino hacia la “inteligencia a nivel humano”.

Bengio opinó que “todavía estamos lejos de la IA a nivel humano”. Bengio observó que los humanos “prestan atención” a situaciones novedosas y se toman tiempo para razonar sobre un problema. “Podemos inspirarnos en cómo los cerebros lo hacen”, dijo, incluyendo el “procesamiento consciente”.

Bengio usó el ejemplo de una persona aprendiendo a conducir por primera vez en el lado izquierdo de la carretera al visitar Londres. Gran parte del aprendizaje es posible, dijo, porque los humanos tienen mucha información que es consistente y familiar, y pueden volver a entrenar hábitos para adaptarse a los elementos novedosos.

LeCun, aunque coincidió con Bengio sobre los problemas a abordar, dijo: “Estoy más enfocado en las soluciones”. Citó el aprendizaje humano y animal a través de pequeñas cantidades de ejemplos. “¿Qué tipo de aprendizaje utilizan los humanos y los animales que no podemos reproducir en las máquinas? Esa es la gran pregunta que me hago”, dijo LeCun.

De izquierda a derecha, el anfitrión Lex Fridman, Yann LeCun, Yoshua Bengio.

“Creo que lo que falta es la capacidad de los humanos y los animales para aprender cómo funciona el mundo, tener un modelo del mundo”, dijo LeCun. Se refirió al ejemplo de Bengio sobre conducir en el lado izquierdo. “Las reglas de la física no cambian”, como girar el volante de un automóvil. “Cómo logramos que las máquinas aprendan modelos del mundo, cómo funciona el mundo, principalmente mediante la observación, para descubrir cosas muy básicas sobre el mundo”.

“El sentido común es una colección de modelos del mundo”, argumentó LeCun.