Cómo funciona EVI, un modelo de inteligencia artificial capaz de identificar emociones y mantener conversaciones con empatía

Cómo funciona EVI, un modelo de inteligencia artificial capaz de identificar emociones y mantener conversaciones con empatía
Cómo funciona EVI, un modelo de inteligencia artificial capaz de identificar emociones y mantener conversaciones con empatía

El aumento de Modelos conversacionales basados ​​en Inteligencia Artificial (IA) planteó diferentes interrogantes sobre sus capacidades y limitaciones, y uno de los puntos más discutidos está relacionado con la interpretación y, eventualmente, imitación de las emociones humanas. Y teniendo esto en cuenta, una empresa tecnológica desarrolló un modelo centrado precisamente en leer las emociones de sus usuarios.

Hume AI, la empresa detrás del chatbot llamado Interfaz de voz empática (EVI)define esta herramienta como “La primera IA emocionalmente inteligente”. Lo que crearon funciona como un chatbot conversacional, ya famoso desde que ChatGPT se convirtió en una aplicación de uso diario para millones de personas, con la particularidad de que -según sus desarrolladores- es capaz de identificar y examinar las emociones de quienes lo utilizan para dar respuestas personalizadas.

Así es como se ve la aplicación Empathic Voice Interface (EVI).

“Basado en más de 10 años de investigación, Nuestros modelos capturan instantáneamente los matices de las expresiones en audio, video e imágenes. Risas teñidas de malestar, suspiros de alivio, miradas nostálgicas y más”, explica el equipo de Hume en su sitio web oficial.

La herramienta escucha lo que le dice el usuario, hace una transcripción y luego devuelve una respuesta que enumera las emociones registradas, con detalles adicionales sobre cada una. Además de registrar si el usuario está triste, preocupado, emocionado, angustiado, emocionado o dudoso, el modelo de IA se expresa con “empatía”.

Según el sitio, EVI puede grabar más de 24 expresiones emocionales diferentes para adaptarlas en su conversación con seres humanosbasado en diferentes “dimensiones de expresión en tonos vocales, prosodia del habla, expresiones faciales” y otros parámetros.

El modelo fue entrenado con datos de millones de conversaciones humanas de todo el mundo para capturar la tonalidad, los reflejos y los sentimientos humanos, y las respuestas se optimizan aún más en tiempo real en función del estado emocional del usuario.

Según información oficial, los desarrolladores pueden utilizar EVI como interfaz para cualquier aplicación a través de su API. Respecto al acceso para público en general, el sitio oficial indica que estará habilitado en abril de 2024.

Cómo la IA de Hume detecta y procesa las emociones

  • Ininterrumpibilidad: Deja de hablar cuando lo interrumpen y comienza a escuchar, como un humano.
  • Responde a expresiones: comprende los altibajos naturales del tono y aquellos que se utilizan para transmitir un significado más allá de las palabras.
  • TTS expresivo: Genera el tono de voz adecuado para responder con un habla natural y expresiva.
  • Alineado con su aplicación: aprender de las reacciones de los usuarios para perfeccionarse, optimizando la felicidad y la satisfacción.
  • Discurso tóxico: Hume AI identifica el discurso tóxico de los jugadores en línea con una tasa de error del 36%.
  • Alineado con el bienestar: La IA está entrenada en las reacciones humanas para potenciar expresiones positivas como las de felicidad y satisfacción.
 
For Latest Updates Follow us on Google News
 

NEXT El bochornoso momento que vivió Cilia Flores en plena cadena de Nicolás Maduro por el Día del Trabajo