
Si existen emociones o no en animales que no sean el ser humano, sigue siendo un tema de debate. Varios estudios basados en el comportamiento, la neurociencia y la fisiología sugieren que los animales también pueden sentir miedo a evitar el peligro y el placer de profundizar los lazos sociales.
En este contexto, los investigadores daneses han logrado construir un modelo de aprendizaje automático capaz de distinguir entre emociones positivas y negativas en siete especies de herbívoros, incluidos bovinos, cerdos y jabalíes. El modelo puede clasificar las emociones, con una alta precisión del 89.49%, analizando los patrones acústicos de sus gritos.
Las emociones positivas aquí se refieren a un estado en el que el animal se siente satisfecho después de comer o se siente relajado en un ambiente seguro. Las emociones negativas, por otro lado, se refieren al hecho de que el animal se siente aislado de sus compañeros, ansiosos o en peligro.
Esta investigación muestra que la inteligencia artificial puede usarse para descifrar las emociones de varias especies de animales de sus patrones de vocalización. “Ser capaz de monitorear las emociones de los animales en tiempo real podría revolucionar el bienestar animal, el manejo del ganado y los esfuerzos de conservación”, explica Elodie F. Briefer, profesora asociada de la Universidad de Especialista en Biología de la Universidad de Copenhague.
Patrones de voz comunes a todas las especies
Las emociones animales se clasifican en dos ejes: excitación, lo que indica el grado de activación física y la valencia emocional, lo que indica si la emoción es positiva o negativa. La emoción se puede evaluar fácilmente a partir de la frecuencia cardíaca y el movimiento, pero medir la valencia emocional no es tan simple. Los sonidos animales se han considerado un indicador útil de la emoción, aunque hasta ahora no habían entendido completamente.
Briefer y su equipo registraron un total de 3,181 llamadas de siete animales herbívoros (vacas, ovejas, caballos, caballos de przewalski, cerdos, jabalíes y cabras) y los usaron para determinar las características acústicas de diecisiete años, incluida la duración, la frecuencia fundamental (el componente de frecuencia más baja de la señal, que determina el tono de sonido) que los cambios de sonido en el volumen sonoras a lo largo del tiempo).
En el estudio, estas características se estandarizaron (alineando datos de diferentes escalas y unidades a la misma escala para la comparación) y luego se convirtieron en dos dimensiones utilizando UMAP, un método analítico que comprime datos de alta dimensión en dimensiones más bajas para la visualización, lo que hace posible la clasificación visual de los datos de la encuesta.
A continuación, los investigadores utilizaron el método ‘K-Means’ (un algoritmo que divide los datos en grupos K y encuentra el punto central dentro de cada grupo en el que los datos están más cerca) y un clasificador bayesiano simple (un método para clasificar los datos basados en la teoría de la probabilidad, suponiendo que las características son independientes entre sí) para clasificar las datos de las canciones en las emotiones positivas y negativas.