Inteligencia artificial siendo entrenada para mostrar empatía

Entrenando inteligencia artificial para demostrar empatía

A medida que los seres humanos se vuelven cada vez más abrumados y ocupados, recurrimos a la inteligencia artificial (IA) para expresar empatía por nosotros.

Según un informe del Wall Street Journal del 7 de octubre, los modelos de IA entrenados con cantidades masivas de datos conversacionales ahora son lo suficientemente avanzados como para detectar emociones y responder con empatía. Empresas como Teleperformance están utilizando bots de IA para analizar las conversaciones de sus agentes de servicio al cliente durante las llamadas.

Los bots utilizan procesamiento de lenguaje natural para detectar señales emocionales basadas en la elección de palabras, el tono vocal y el ritmo. Luego califican a cada agente en métricas como la empatía.

Se dice que médicos y terapeutas utilizan herramientas de IA similares para sugerir respuestas empáticas a los pacientes que necesitan cuidado o apoyo emocional. La IA revisa las conversaciones con los pacientes y propone respuestas reflexivas y comprensivas para que el proveedor elija.

Incluso la voz reconfortante al otro lado de una llamada de tu banco puede ser en realidad un chatbot de IA diseñado para sonar afectuoso y reflexivo utilizando capacidades avanzadas de detección y generación de respuestas emocionales. Los defensores argumentan que la empatía de IA podría mejorar en gran medida las interacciones en campos como el servicio al cliente, la atención médica y los recursos humanos.

Por ejemplo, algunos argumentan que un bot de ventas empático podría mejorar la satisfacción del cliente y las ventas al detectar cuando un cliente está frustrado o confundido y responder adecuadamente. También se afirma que los bots de terapeutas pueden ayudar a abordar la escasez severa de acceso a la atención de salud mental utilizando sistemas de conversación automatizados para brindar apoyo emocional esencial y técnicas terapéuticas a aquellos que no pueden acceder a proveedores humanos.

Sin embargo, algunos expertos advierten que la IA carece de experiencias emocionales reales y, por lo tanto, no puede realmente empatizar; solo emula ejemplos de lo que se considera una respuesta emocional adecuada. La bioeticista Jodi Halpern señala que “la empatía cognitiva”, donde una IA reconoce las emociones basadas en patrones de datos, no es lo mismo que la “empatía emocional”, que implica preocupación genuina a partir de experiencias emocionales compartidas. Otros advierten que delegar la empatía a la IA corre el riesgo de atrofiar las habilidades humanas si se utiliza como un reemplazo en lugar de un complemento para el compromiso emocional humano a humano.

A medida que se expanden las aplicaciones de la empatía artificial, se necesitarán pautas y transparencia para integrar la tecnología de manera ética. Si bien la IA puede algún día imitar perfectamente la inteligencia emocional humana, por ahora carece de las experiencias compartidas que crean una comprensión empática verdadera. La supervisión y una implementación inteligente son clave para asegurar que la empatía artificial complemente, pero no reemplace, la auténtica compasión humana.

Crédito de la imagen destacada: Alex Green; Pexels; ¡Gracias!