Asistentes de IA más inteligentes podrían dificultar mantenerse humano

AI assistants getting smarter may make it harder to stay human.

Investigadores y futuristas han estado hablando durante décadas sobre el día en que agentes de software inteligentes actuarán como asistentes personales, tutores y consejeros. Apple produjo su famoso video Knowledge Navigator en 1987. Parece que recuerdo haber asistido a un evento del MIT Media Lab en los años 90 sobre agentes de software, donde el moderador apareció como un mayordomo, con un sombrero de copa. Con la llegada de la IA generativa, esa visión difusa de software como ayudante de campo ha cobrado repentinamente claridad. Will Knight de ENBLE proporcionó un resumen esta semana de lo que está disponible ahora y lo que está próximo.

Texto sin formato

Me preocupa cómo esto nos cambiará, y nuestras relaciones con los demás, a largo plazo. Muchas de nuestras interacciones con los demás serán mediadas por bots actuando en nuestro lugar. Los asistentes robóticos son diferentes de los ayudantes humanos: no toman descansos, pueden acceder instantáneamente a todo el conocimiento del mundo y no requerirán un salario digno. Cuanto más los usemos, más tentador será delegar tareas que antes reservábamos para nosotros mismos. Ahora mismo, los asistentes de IA disponibles aún no están refinados. Aún no hemos llegado al punto en el que los bots autónomos se hagan cargo rutinariamente de actividades en las que los errores no pueden ser tolerados, como reservar vuelos, hacer citas médicas y administrar carteras financieras. Pero eso cambiará, porque puede. Parece que estamos destinados a vivir nuestras vidas como pilotos de líneas aéreas de larga distancia: después de establecer un rumbo, podemos relajarnos en la cabina mientras la IA dirige el avión, cambiando al modo manual cuando sea necesario. El temor es que, eventualmente, sean los agentes quienes decidan hacia dónde se dirige el avión en primer lugar.

Dejando de lado el pesimismo, todos tendremos que lidiar con agentes supersistentes y posiblemente manipuladores de otras personas. Delegaremos el control de nuestras propias actividades diarias y elecciones cotidianas, desde listas de compras hasta calendarios de citas, a nuestros propios asistentes de IA, que también interactuarán con los agentes de nuestra familia, amigos y enemigos. A medida que ganen independencia, nuestros ayudantes automatizados pueden terminar tomando decisiones o acuerdos en nuestro nombre que no son buenos en absoluto.

Para obtener una visión optimista de este futuro, consulto a Mustafa Suleyman. Uno de los cofundadores de la startup de IA DeepMind, ahora el corazón del desarrollo de IA de Google, es ahora el CEO de Inflection.ai, una empresa que desarrolla chatbots. Suleyman también ha ocupado recientemente un lugar en la lista de bestsellers del New York Times por su libro The Coming Wave, que sugiere cómo los humanos pueden enfrentar los peligros existenciales de la IA. En general, es optimista y, por supuesto, tiene una perspectiva positiva sobre los agentes de software. Describe al bot que su empresa crea, Pi, como un “jefe de personal” personal que proporciona no solo sabiduría, sino también aliento empático y amabilidad.

“Hoy en día, Pi no puede reservarte restaurantes o organizar un automóvil o, ya sabes, comprar cosas por ti”, dice Suleyman. “Pero en el futuro, tendrá tu representación contractual y legal, lo que significa que le has otorgado permisos para celebrar contratos en tu nombre, gastar dinero real y vincularte a acuerdos materiales en el mundo real”. También en el plan de trabajo: Pi realizará llamadas telefónicas en nombre de su dueño y negociará con agentes de servicio al cliente.

Esto parece justo, porque en este momento, demasiados de esos agentes de servicio ya son bots y, tal vez, ¿por diseño?, no están abiertos a argumentos razonables de que sus empleadores corporativos perjudican a sus propios clientes. Inevitablemente, lanzaremos nuestras IA a negociaciones con otras IA en todas las áreas de la vida. Suleyman reconoce que no queremos que esos bots se vuelvan demasiado cercanos entre sí o interactúen de maneras no abiertas a la inspección humana. “Realmente queremos que la comunicación de IA a IA se limite al inglés básico”, dice Suleyman. “De esa manera, podemos auditarlo”.

Esa es una preocupación bien intencionada, pero probablemente obligaría a los agentes a trabajar más lentamente e incluso podría evitar algunas de las soluciones más innovadoras que puedan surgir de nuestros asistentes superinteligentes. Sospecho que la tentación de hacer que la comunicación de IA a IA sea eficiente y efectiva superará ese buen sentimiento.

Otra pesadilla potencial: bots financiados por publicidad que dirigen a los propietarios a productos y servicios patrocinados. A Suleyman no le encanta la idea, pero no parece descartarla. Dice que sus bots, que brindan un valor tremendo, no serán baratos. “Regularmente pagas a un abogado cientos de dólares por hora. Pero por alguna razón, nos hemos vuelto alérgicos a pagar más de 10 dólares al mes por cualquier servicio en línea. Eso tendrá que cambiar”. ¿Se ofrecerán versiones con publicidad a aquellos que no puedan pagar la tarifa? Reconoce que no todos querrán pagar por el acceso a la tecnología. En cualquier caso, Suleyman dice que la confianza y la responsabilidad son esenciales. “Pasará muchos años antes de que nos sintamos cómodos con la IA tomando acciones autónomas”, dice. “No creo que debamos hacer eso en el corto plazo”.

La tecnología hará que las personas individuales sean más poderosas, mi única preocupación es: ¿qué hacen las personas con ese poder?

Para mí, esa es la preocupación, una vez que nos sentimos cómodos, estamos acabados. Cuando busqué validación en un análisis de documentos de investigación, mi atención fue capturada por el título “El poder de hacer daño: los asistentes de IA allanan el camino hacia un comportamiento no ético”. Escrito por los científicos de la Universidad del Sur de California, Jonathan Gratch y Nathanael Fast, plantea la hipótesis de que los agentes inteligentes pueden democratizar un hábito poco deseable de las personas ricas, que externalizan su mal comportamiento a través de abogados, portavoces y secuaces matones. “Revisamos una serie de estudios que ilustran cómo, en una amplia gama de tareas sociales, las personas pueden comportarse de manera menos ética y estar más dispuestas a engañar cuando actúan a través de agentes de IA”, escriben.

Me puse al día con Gratch, quien habló conmigo desde una conferencia en Würzburg, Alemania. “Cada hombre o mujer puede tener su asistente personal que haga cosas en su nombre”, dice. “Nuestra investigación sugiere que las personas podrían estar dispuestas a decirle a sus asistentes que hagan cosas que son más éticamente cuestionables de lo que ellos mismos estarían dispuestos a hacer”.

Gratch ha estado investigando el posible impacto de los agentes inteligentes durante años. En el último año, el campo ha experimentado una transformación similar a un rayo que golpea a alguien de repente dotado de superpoderes. “Solía ser que pasabas una tesis de doctorado entera intentando construir el maldito agente que querías probar”, dice. “Y ahora, con dos días jugando con GPT o algo así, puedes obtener algo que interactúa con las personas y se ve bastante bien”. Gratch dice que su campo ahora está impregnado de una mezcla de emoción y angustia.

“La tecnología hará que las personas individuales sean más poderosas, liberando tiempo libre”, dice. “La única preocupación que tengo es: ¿qué hacen las personas con ese poder?” Por ejemplo, si hubiera dirigido a un agente para que lo llamara en mi nombre, dice, se habría perdido una posible conexión humana. “Esas conexiones personales son las que nos mantienen amables y promueven la empatía”, dice Gratch. “Cuando la IA se trata más de algoritmos y leyes y transacciones, nos disminuye como personas”.

El campo de Gratch, antes centrado en hipótesis, ahora puede sentirse como una guía de los servicios comerciales de IA que están a la vuelta de la esquina. Considera algunas de las presentaciones en la conferencia en Würzburg: “Efectos de la encarnación del agente en negociaciones humano-agente”, “Adaptarse a la expresividad del usuario mientras se mantiene la seguridad para un consejero virtual de abuso de alcohol”, “El efecto de la relación en la delegación a agentes virtuales”. (Reconfortantemente, otros documentos trataban sobre mantener la ética en un mundo lleno de agentes). Gratch vio trabajos similares en una conferencia a la que asistió recientemente en el MIT. También estaban allí todas las principales compañías de tecnología, dice, y espera que contraten a muchos de sus estudiantes.

Gratch describe una sesión de conferencia esta semana donde los investigadores exploraron cómo el software de IA podría manipular a las personas con emociones, comportamientos no verbales o gestos, y encontrar las técnicas más efectivas. “Puedes ajustar ChatGPT para hacer todo eso y venderte un televisor más caro”, dice. ¿Te sientes empoderado todavía?

En diciembre de 2010, ENBLE se adelantó un poco al declarar: “La Revolución de la IA está en marcha”. En mi ensayo, hablé sobre la dificultad de entender qué estaban haciendo los productos de IA, incluso si terminan haciendo algo bueno.

Estamos involucrados en un baile permanente con las máquinas, atrapados en un abrazo cada vez más dependiente. Y sin embargo, debido a que el comportamiento de los bots no se basa en procesos de pensamiento humano, a menudo somos impotentes para explicar sus acciones. Wolfram Alpha, el sitio web creado por el científico Stephen Wolfram, puede resolver muchos problemas matemáticos. También parece mostrar cómo se derivan esas respuestas. Pero los pasos lógicos que los humanos ven son completamente diferentes de los cálculos reales del sitio web. “No hace ninguno de ese razonamiento”, dice Wolfram. “Esos pasos son pura falsedad. Pensamos, ¿cómo podemos explicar esto a uno de esos humanos que están ahí fuera?”

La lección es que a veces nuestras computadoras tienen que complacernos, o nos asustarán. Eric Horvitz, ahora un destacado investigador de Microsoft y ex presidente de la Asociación para el Avance de la Inteligencia Artificial, ayudó a construir un sistema de IA en la década de 1980 para ayudar a los patólogos en sus estudios, analizando cada resultado y sugiriendo la siguiente prueba a realizar. Solo hubo un problema: proporcionaba las respuestas demasiado rápido. “Descubrimos que las personas confiaban más en él si agregábamos un bucle de retraso con una luz intermitente, como si estuviera resoplando y jadeando para encontrar una respuesta”, dice Horvitz.

Pero debemos aprender a adaptarnos. La inteligencia artificial es tan crucial para algunos sistemas, como la infraestructura financiera, que deshacerse de ella sería mucho más difícil que simplemente desconectar los módulos de HAL 9000. “En cierto sentido, se puede argumentar que el escenario de la ciencia ficción ya está comenzando a suceder”, dice Hillis de Thinking Machines. “Las computadoras están en control y nosotros simplemente vivimos en su mundo”. Wolfram dice que este dilema se intensificará a medida que la IA asuma nuevas tareas, alejándose aún más de la comprensión humana. “¿Regulas un algoritmo subyacente?”, pregunta. “Eso es una locura, porque en la mayoría de los casos no puedes prever las consecuencias que ese algoritmo tendrá”.

Shanti pregunta: “¿Habrá alguna vez un sucesor del correo electrónico? ¿Qué se necesitaría para superar esta opción predeterminada de Internet social?”

Gracias por la pregunta enviada por correo electrónico, Shanti. El correo electrónico no tiene el poder que solía tener. Muchos mensajes que antes se enviaban por correo electrónico ahora llegan a las personas a través de mensajes de texto, mensajes directos en redes sociales o Slack. Sospecho que surgirán otros servicios que erosionarán aún más la hegemonía una vez omnipotente del correo electrónico. Sin embargo, como sugieres, para muchas cosas, el correo electrónico es realmente la opción predeterminada, a pesar de que las bandejas de entrada están perpetuamente fuera de control. Recuerdo que Bill Gates una vez me visitó en mi oficina de Newsweek para decirme que el spam se erradicaría en un año. En unos meses celebraré el vigésimo aniversario de esa visita y recibo docenas de mensajes basura todos los días, con un porcentaje molesto que evade el filtro de spam.

Dejando de lado el spam, no querría deshacerme del correo electrónico. Es difícil imaginar una forma más fácil de presentarse a alguien, enviar o recibir archivos o mantener un archivo de interacciones. Esa última función no tiene precio. Porque puedo buscar instantáneamente décadas de mensajes. Cada vez que aparece un nombre familiar, puedo desenterrar rápidamente un intercambio anterior que había olvidado por completo.

Por otro lado, si alguien sugiriera sentencias mínimas obligatorias para aquellos que me incluyen unilateralmente en listas de correo, especialmente comerciales, no me opondría.

Puedes enviar preguntas a [email protected]. Escribe ASK LEVY en la línea de asunto.

Finalmente, la clasificación que todos hemos estado esperando: las mejores ciudades para sobrevivir a un apocalipsis zombie. ¡Nueva York está en el puesto #2!

Además de dar consejos y discutir con agentes de servicio al cliente, los bots también pueden escribir. Pero, ¿qué tan bien lo hacen?

Dall-E 3 hace que sea aún más fácil dejar sin trabajo a los ilustradores.

Inventar Crispr no es suficiente para la ganadora del Nobel Jennifer Doudna. Ahora planea editar el bioma.

En el interior de Neuralink de Elon Musk, donde el negocio de los monos realmente incluye monos muertos.

Si compras algo utilizando los enlaces en nuestras historias, es posible que ganemos una comisión. Esto ayuda a mantener nuestro periodismo. Obtén más información. Por favor, considera suscribirte a ENBLE.