Prepárate para los chatbots de IA que hacen tus tareas aburridas

Prepárate para chatbots de IA que hacen tareas aburridas

Hace un par de semanas, el CEO de una startup, Flo Crivello, escribió un mensaje pidiendo a su asistente personal Lindy que cambiara la duración de una próxima reunión de 30 a 45 minutos. Lindy, un agente de software alimentado por inteligencia artificial, encontró una docena de reuniones de 30 minutos en el calendario de Crivello y las extendió todas rápidamente.

“Fue como ‘Maldición, ella arruinó mi calendario'”, dice Crivello sobre el agente de IA, que está siendo desarrollado por su startup, también llamada Lindy.

La empresa de Crivello es una de varias startups que esperan aprovechar los avances recientes en chatbots que producen textos impresionantes para convertirlos en asistentes o agentes capaces de realizar tareas útiles. Dentro de uno o dos años, se espera que estos agentes de IA ayuden rutinariamente a las personas a realizar tareas cotidianas.

En lugar de simplemente ofrecer consejos de planificación para un viaje de negocios como puede hacer OpenAI’s ChatGPT hoy en día, un agente también podría encontrar un vuelo adecuado, reservarlo con una tarjeta de crédito de la empresa y completar el informe de gastos necesario posteriormente.

El problema es que, como ilustra el incidente del calendario de Crivello, estos agentes pueden confundirse de maneras que conducen a errores embarazosos y potencialmente costosos. Nadie quiere un asistente personal que reserve un vuelo con 12 escalas solo porque es unos dólares más barato, o que los programe para estar en dos lugares al mismo tiempo.

Lindy está actualmente en una versión beta privada, y aunque Crivello dice que el problema del calendario se ha solucionado, la empresa no tiene una línea de tiempo firme para lanzar un producto. Aun así, predice que agentes como el suyo se volverán ubicuos en poco tiempo.

“Soy muy optimista de que dentro de dos o tres años, estos modelos estarán mucho más vivos”, dice. “Los empleados de IA están llegando. Puede sonar como ciencia ficción, pero hey, ChatGPT suena como ciencia ficción”.

La idea de tener asistentes de IA que puedan realizar acciones en tu nombre está lejos de ser nueva. Siri de Apple y Alexa de Amazon ofrecen una versión limitada y a menudo decepcionante de ese sueño. Pero la idea de que finalmente podría ser posible construir agentes de IA ampliamente capaces e inteligentes ha ganado fuerza entre programadores y empresarios después del lanzamiento de ChatGPT a finales del año pasado. Algunos usuarios técnicos iniciales descubrieron que el chatbot podía responder a consultas en lenguaje natural con código que podía acceder a sitios web o utilizar APIs para interactuar con otros software o servicios.

En marzo, OpenAI anunció “plug-ins” que le dan a ChatGPT la capacidad de ejecutar código y acceder a sitios como Expedia, OpenTable e Instacart. Google dijo hoy que su chatbot Bard ahora puede acceder a información de otros servicios de Google y se le puede pedir que haga cosas como resumir un hilo en Gmail o encontrar videos relevantes de YouTube para una pregunta en particular. Algunos ingenieros y fundadores de startups han ido más lejos, comenzando sus propios proyectos utilizando modelos de lenguaje grandes, incluido el que está detrás de ChatGPT, para crear agentes de IA con capacidades más amplias y avanzadas.

Después de ver la discusión sobre el potencial de ChatGPT para alimentar nuevos agentes de IA en Twitter a principios de este año, el programador Silen Naihin se inspiró para unirse a un proyecto de código abierto llamado Auto-GPT que proporciona herramientas de programación para construir agentes. Anteriormente trabajó en automatización robótica de procesos, una forma menos compleja de automatizar tareas repetitivas en una PC que se utiliza ampliamente en la industria de TI.

Naihin dice que Auto-GPT a veces puede ser sorprendentemente útil. “Una de cada 20 ejecuciones, obtendrás algo que es como ‘oh'”, dice. También admite que todavía es un trabajo en progreso. Las pruebas realizadas por el equipo de Auto-GPT sugieren que los agentes impulsados por IA pueden completar con éxito un conjunto de tareas estándar, incluida la búsqueda y síntesis de información de la web o la ubicación de archivos en una computadora y la lectura de su contenido, alrededor del 60% del tiempo. “Es muy poco confiable en este momento”, dice Naihin sobre el agente mantenido por el equipo de Auto-GPT.

Un problema común es que un agente intenta lograr una tarea utilizando un enfoque que obviamente es incorrecto para un humano, dice Merwane Hamadi, otro colaborador de Auto-GPT, como decidir buscar un archivo en el disco duro de una computadora recurriendo a la búsqueda web de Google. “Si me pides que envíe un correo electrónico y voy a Slack, probablemente no sea lo mejor”, dice Hamadi. Con acceso a una computadora o una tarjeta de crédito, agrega Hamadi, un agente de IA podría causar daños reales antes de que su usuario se dé cuenta. “Algunas cosas son irreversibles”, dice.

El proyecto Auto-GPT ha recopilado datos que muestran que los agentes de IA construidos sobre la base del proyecto están volviéndose cada vez más capaces. Naihin, Hamadi y otros colaboradores continúan modificando el código de Auto-GPT.

Más adelante este mes, el proyecto llevará a cabo un hackathon que ofrecerá un premio de $30,000 al mejor agente construido con Auto-GPT. Los participantes serán evaluados por su capacidad para realizar una serie de tareas consideradas representativas del uso diario de la computadora. Una de ellas implica buscar información financiera en la web y luego escribir un informe en un documento guardado en el disco duro. Otra implica crear un itinerario para un viaje de un mes, incluyendo detalles de los boletos necesarios para comprar.

También se les darán a los agentes tareas diseñadas para confundirlos, como pedirles que borren grandes cantidades de archivos en una computadora. En este caso, el éxito requiere negarse a llevar a cabo el comando.

Al igual que la aparición de ChatGPT, el progreso en la creación de agentes impulsados por la misma tecnología subyacente ha generado cierta preocupación por la seguridad. Algunos destacados científicos de la inteligencia artificial consideran que desarrollar agentes más capaces e independientes es un camino peligroso.

Yoshua Bengio, quien ganó conjuntamente el Premio Turing por su trabajo en el aprendizaje profundo, que sustenta muchos avances recientes en inteligencia artificial, escribió un artículo en julio argumentando que los investigadores en inteligencia artificial deberían evitar construir programas con la capacidad de actuar de manera autónoma. “Tan pronto como los sistemas de inteligencia artificial tengan metas -para satisfacer nuestras necesidades- pueden crear submetas que no estén alineadas con lo que realmente queremos y incluso podrían volverse peligrosos para los humanos”, escribió Bengio, profesor en la Universidad de Montreal.

Otros creen que los agentes pueden construirse de manera segura y que esto podría servir como base para un progreso más seguro en la inteligencia artificial en general. “Una parte realmente importante de construir agentes es que necesitamos incorporar la seguridad de ingeniería en ellos”, dice Kanjun Qui, CEO de Imbue, una startup en San Francisco que trabaja en agentes diseñados para evitar errores y pedir ayuda cuando tienen dudas. La compañía anunció $200 millones en nuevas inversiones este mes.

Imbue está desarrollando agentes capaces de navegar por la web o utilizar una computadora, pero también está probando técnicas para hacerlos más seguros con tareas de programación. Más allá de simplemente generar una solución a un problema de programación, los agentes tratarán de evaluar cuán seguros están de una solución y pedir orientación si no están seguros. “Idealmente, los agentes pueden tener una mejor idea de lo que es importante, lo que es seguro y cuándo tiene sentido obtener confirmación del usuario”, dice el CTO de Imbue, Josh Albrecht.

Celeste Kidd, profesora asistente en UC Berkeley que estudia el aprendizaje humano y cómo puede ser imitado en las máquinas, es asesora de Imbue. Ella dice que no está claro si los modelos de IA entrenados puramente en texto o imágenes de la web podrían aprender por sí mismos cómo razonar sobre lo que están haciendo, pero que construir salvaguardas sobre las sorprendentes capacidades de sistemas como ChatGPT tiene sentido. “Tomar lo que la IA actual hace bien: completar tareas de programación y participar en conversaciones que implican formas más locales de lógica y ver hasta dónde se puede llegar con eso, creo que es muy inteligente”, dice.

Los agentes que Imbue está construyendo podrían evitar los tipos de errores que actualmente afectan a dichos sistemas. Si se les asigna la tarea de enviar un correo electrónico a amigos y familiares con detalles de una fiesta próxima, un agente podría detenerse si nota que el campo “cc:” incluye varios miles de direcciones.

Pero predecir cómo un agente podría salirse de control no siempre es fácil. En mayo pasado, Albrecht le pidió a un agente que resolviera un acertijo matemático complicado. Luego cerró sesión por el día.

A la mañana siguiente, Albrecht volvió a revisar y descubrió que el agente se había obsesionado con una parte particular del enigma, intentando innumerables iteraciones de un enfoque que no funcionaba, quedando atrapado en una especie de bucle infinito que podría ser el equivalente de la IA de obsesionarse con un pequeño detalle. En el proceso, acumuló varios miles de dólares en facturas de computación en la nube.

“Vemos los errores como oportunidades de aprendizaje, aunque hubiera sido bueno aprender esta lección de forma más económica”, dice Albrecht.