Saltar al contenido principalSaltar al pie de página

Secciones

Inteligencia Artificial / Neurociencias

La IA ya puede explicar cómo se construyen las emociones humanas

Un nuevo estudio muestra que la IA puede comprender las emociones humanas a partir de señales corporales y lenguaje

El modelo podría tener aplicaciones en salud mental, robótica social y atención a pacientes con deterioro cognitivo.

El modelo podría tener aplicaciones en salud mental, robótica social y atención a pacientes con deterioro cognitivo. / Crédito: julien Tromeur en Unsplash.

Pablo Javier Piacente / T21

Los investigadores están explorando si la formación de emociones puede modelarse computacionalmente a través de esquemas de Inteligencia Artificial (IA), proporcionando a las máquinas una comprensión más profunda y similar a la humana de los estados emocionales.

La inteligencia artificial avanza un paso más allá del reconocimiento facial o de voz. Investigadores del Instituto de Ciencia y Tecnología de Nara y la Universidad de Osaka, en Japón, han desarrollado un modelo de IA que puede explicar cómo el cerebro humano construye las emociones, combinando datos fisiológicos, estímulos visuales y palabras, sin necesidad de categorías emocionales predefinidas.

El estudio, publicado en la revista IEEE Transactions on Affective Computing, propone que la inteligencia artificial no solo reconozca señales emocionales, sino que ayude a explicar cómo se forman los conceptos de emoción en la mente humana, procesos extremadamente complejos que la neurociencia aún no ha logrado comprender en su totalidad.

Datos integrados: cómo la IA reconoce las emociones

La base teórica de la investigación es la llamada teoría de la emoción construida, que sostiene que las emociones no son respuestas automáticas primitivas, sino conceptos que el cerebro arma en cada situación, combinando información interna (como por ejemplo la frecuencia cardíaca) con la percepción externa y el significado lingüístico.

A partir de esa premisa, los autores diseñaron una extensión multimodal de un modelo probabilístico, para descubrir categorías emocionales a partir de datos sin etiquetar. Según una nota de prensa, para entrenar y evaluar el sistema los investigadores registraron reacciones de 29 participantes, mientras veían 60 imágenes catalogadas por su capacidad de evocar emociones.

Al mismo tiempo, recogieron señales fisiológicas como el ritmo cardíaco, capturas visuales y descripciones verbales de la experiencia emocional, dejando que el modelo encontrara patrones sin recibir etiquetas previas sobre “miedo”, “alegría” o “tristeza”, entre otras emociones.

La IA y las emociones humanas: aplicaciones prácticas en salud mental

El resultado es sorprendente: los conceptos de emoción que el modelo de IA aprendió coincidieron con las evaluaciones subjetivas de las personas en aproximadamente un 75 %, una cifra que sugiere que el sistema puede captar regularidades emocionales relevantes para la experiencia humana, aunque lógicamente no logre precisar con exactitud las experiencias individuales.

Referencia

Study of Emotion Concept Formation by Integrating Vision, Physiology, and Word Information Using Multilayered Multimodal Latent Dirichlet Allocation. Kazuki Tsurumaki et al. IEEE Transactions on Affective Computing (2026). DOI:https://doi.org/10.1109/TAFFC.2025.3585882

Los autores interpretan a partir de estos resultados que la formación de categorías emocionales puede ser explicada, al menos parcialmente, por procesos computacionales de integración multimodal. Las aplicaciones son numerosas: el modelo podría mejorar sistemas de apoyo en salud mental, monitorear pacientes con demencia o poner en marcha asistentes robóticos que respondan con mayor empatía al contexto humano.

Además, como el sistema puede deducir estados que la persona no logra verbalizar, abre posibilidades en diagnósticos tempranos y cuidado personalizado. Sin embargo, los investigadores aclaran que esto no equivale a “sentir”: la IA modela patrones estadísticos, no posee experiencia subjetiva.

Tracking Pixel Contents