Por favor, deja de pedir consejos amorosos a los chatbots

Deja de pedir consejos amorosos a los chatbots

Mientras se sentaba frente a mí, mi paciente tenía una expresión de arrepentimiento en su rostro.

“Tenía una cita”, anunció. “No salió bien”.

Eso no era inusual para este paciente. Durante años, había compartido historias de esperanzas románticas frustradas. Pero antes de que pudiera preguntarle qué salió mal, continuó: “Así que le pregunté a un chatbot qué debería hacer”.

Um. ¿Qué? Las simulaciones de conversación humana impulsadas por inteligencia artificial, conocidas como chatbots, han estado en las noticias, pero nunca antes había tenido un paciente que me dijera que realmente había usado uno para pedir consejo.

“¿Qué te dijo?” le pregunté, curioso.

“Que le dijera que me importan sus valores”.

“Oh. ¿Funcionó?”

“Dos conjeturas”, suspiró y levantó las manos. Aunque este paciente fue el primero, ahora se ha convertido en una ocurrencia regular en mi práctica terapéutica escuchar de nuevos pacientes que han consultado chatbots antes de consultarme. La mayoría de las veces, es para obtener consejos sobre el amor y las relaciones, pero también puede ser para conectarse o establecer límites con sus hijos o para solucionar una amistad que ha salido mal. Los resultados han sido decididamente mixtos.

Un nuevo paciente preguntó al chatbot cómo lidiar con el aniversario de la muerte de un ser querido. El bot aconsejó reservar tiempo en su día para recordar lo especial que era esa persona. No lo podría haber dicho mejor yo mismo.

“Lo que escribió me hizo llorar”, dijo el paciente. “Me di cuenta de que había estado evitando mi dolor. Así que hice esta cita”.

Otro paciente comenzó a depender de la inteligencia artificial cuando sus amigos empezaron a agotarse. “No puedo agotar a mi chatbot”, me dijo.

Grace Browne

Kelly Sullivan Walden

Sarah Gundle, PsyD

Como terapeuta, me siento alarmado e intrigado por el potencial de la inteligencia artificial para ingresar al campo de la terapia. No hay duda de que la IA es el futuro. Ya ha demostrado ser útil en todo, desde escribir cartas de presentación y discursos hasta planificar viajes y bodas. Entonces, ¿por qué no permitir que también nos ayude en nuestras relaciones? Una nueva empresa llamada Replika, el “compañero de IA que se preocupa”, ha ido un paso más allá e incluso ha creado avatares románticos para que las personas se enamoren. Otros sitios, como Character.ai, te permiten chatear y pasar tiempo con tus personajes ficticios favoritos, o crear tu propio bot para hablar contigo.

Pero vivimos en una era de desinformación. Ya hemos visto ejemplos perturbadores de cómo los algoritmos difunden mentiras y teorías de conspiración entre humanos desprevenidos o malintencionados. ¿Qué sucederá cuando los dejemos entrar en nuestras vidas emocionales?

“Aunque la IA pueda articular cosas como un humano, debes preguntarte cuál es su objetivo”, dice Naama Hoffman, profesora asistente en el Departamento de Psiquiatría de la Escuela de Medicina Icahn, Hospital Mount Sinai, en la ciudad de Nueva York. “El objetivo en las relaciones o en la terapia es mejorar la calidad de vida, mientras que el objetivo de la IA es encontrar lo más citado. No se supone que ayude, necesariamente”.

Como terapeuta, sé que mi trabajo puede beneficiarse de un apoyo externo. He estado dirigiendo grupos de trauma durante dos décadas y he visto cómo el andamiaje de un marco psicoeducativo, especialmente uno basado en evidencia como Seeking Safety, facilita un trabajo emocional más profundo. Después de todo, el chatbot original, Eliza, fue diseñado para ser un “terapeuta virtual” porque hacía preguntas abiertas interminables, y todavía se puede usar. Los chatbots pueden ayudar a las personas a encontrar inspiración e incluso a derribar defensas y permitir que las personas ingresen a la terapia. Pero, ¿dónde está el punto en el que las personas dependen demasiado de las máquinas?

“Las sugerencias de la IA pueden ayudarte a tolerar tu angustia, como una curita, pero luego, cuando te la quitas, nada ha cambiado”, dice Hoffman, quien recomienda tener precaución al usar la IA en lugar de un tratamiento, “porque hay muchas cualidades que afectan los resultados del tratamiento que faltan en la IA. Técnica; características de personalidad, como tono de voz y sarcasmo; y variables de relación, como la historia que compartes, el lenguaje corporal y las expresiones faciales, son todos aspectos importantes de la investigación de resultados. Entonces, aunque pueda estar diciendo lo mismo, el resultado será diferente”.

Aunque es bastante posible que la inteligencia artificial desempeñe un papel importante en la terapia del futuro, existen otras opciones mejores para aquellos que buscan obtener apoyo o terapia. Considera aplicaciones como BetterHelp, Headspace y Calm, que pueden ayudarte a comenzar, o recursos como la herramienta Encuentra un terapeuta de Psychology Today o Zencare, que te ayudarán a encontrar un terapeuta cerca de ti. Y aquí hay algunas opciones adicionales.

  1. Habla con tus amigos. ¿Has llamado a tu amigo más cercano esta semana? La inteligencia artificial no puede simpatizar, no realmente, y sabes que sus intentos de hacerte sentir mejor no son sinceros. Tampoco tendrá una presencia física tranquilizadora. Ni la terapia ni la verdadera amistad pueden ser reemplazadas por una máquina sin alma.
  2. Arriésgate. Para tener relaciones exitosas, debes correr riesgos y no tener miedo de fracasar. Los chatbots no entienden el potencial generativo de las fallas en la comunicación y los sentimientos heridos. ¿Cómo más aprendemos a reparar relaciones? Además, en la inteligencia artificial, la calidad de la respuesta que obtienes se basa en la calidad de la pregunta que haces. Respuestas vagas obtienen respuestas vagas. Así sucede con las relaciones: si quieres vulnerabilidad en otro, solo hay una forma de conseguirla: mostrar tu propia vulnerabilidad. Esta noción contraintuitiva probablemente no tenga mucho sentido para un chatbot que escanea su base de datos y luego arroja cadenas de palabras que predice que son una respuesta probable a tu pregunta.
  3. Prioriza el consejo que está específicamente sintonizado contigo. Siempre es útil recopilar datos de diferentes fuentes al abordar una decisión, especialmente una emocional de alto riesgo. Pero es importante priorizar el consejo que está específicamente sintonizado contigo, algo que la inteligencia artificial no está diseñada para hacer. No sabe cuándo necesitas un amor duro o un humor oscuro; no puede adivinar si quieres hacer una lluvia de ideas para encontrar una solución o simplemente desahogarte. Solo sabe cómo sintetizar datos, no puede asomarse a tu alma. Pregúntate a ti mismo: ¿Cuándo fue la última vez que alguien dijo algo que me hizo sentir realmente comprendido? Si la respuesta te deja pensando, pregúntate cuándo fue la última vez que alguien sintió eso por algo que dijiste.
  4. Admite cuando no sabes algo o has cometido un error. Los chatbots están diseñados para siempre tener una respuesta, pero admitir cuando no sabes algo es una herramienta muy subestimada en las relaciones. Estamos más conectados que nunca con nuestras propias fallas; esto ha creado una ansiedad de proporciones épicas y ha servido para reforzar la idea de que siempre debemos saber a dónde vamos, cuál es nuestro plan y qué debemos hacer o sentir. El perfeccionismo en las relaciones puede ser muy dañino. Incluso si deseas haber hecho algo de manera diferente, los errores casi siempre son oportunidades para conectarse más profundamente.
  5. Finalmente, busca inspiración. Lee grandes poemas. Escucha a Puccini, Mozart, Taylor Swift. Visita un museo. Reproduce el álbum Blue de Joni Mitchell en su totalidad con las luces apagadas. Hoffman dice que “para algunas personas, la inspiración puede venir de una caminata o una receta, algo creativo y no relacionado con tu vida”. Permítete ser conmovido; a menudo sucede que sentirse inspirado es reconfortante. El arte también es un recordatorio de que somos parte de algo más grande que nosotros mismos.

Casi todos los avances tecnológicos llevan consigo promesas y peligros. Internet móvil hizo que el acceso a la información estuviera fácilmente disponible, pero también nos hizo demasiado dependientes de nuestros teléfonos y menos inclinados a retener información. La industrialización en masa hizo que los bienes y servicios fueran más asequibles, pero también aceleró el cambio climático. No hay duda de que la inteligencia artificial será una característica significativa de nuestro futuro. La pregunta es cómo podemos aprovechar su poder para el bien sin perder el bloque de construcción más esencial de la sociedad: la conexión humana.