Inteligencia Artificial Emocional: Integrar señales cerebrales y de voz en IA

Fernando Soler Toscano

Teresa Lopez-Soto

Alvaro García López

Datos de la ponencia
Miércoles, 6 de noviembre de 2024
11:00
Seminario E1.80 - E. T. S. Ingeniería Informática - Universidad de Sevilla
Resumen de la ponencia

El lenguaje, más que una simple comunicación, está profundamente ligado al pensamiento y las emociones, y es esencial en la estructuración del cerebro humano. Con los avances en IA y biometría, especialmente en la Teoría de la Mente (ToM), se ha potenciado el estudio del lenguaje y de cómo el cerebro detecta y responde emocionalmente. La ToM permite ajustar nuestras respuestas en función del estado emocional del interlocutor, utilizando tanto inputs externos (como visión y audición) como internos (como las hormonas) para interpretar estados de ánimo y motivaciones. Las áreas prefrontales, junto con la amígdala y la ínsula, regulan esta interacción entre emociones y cognición, influidas también por las hormonas del sistema endocrino, que modifican nuestras conductas sociales. Este proyecto se basa en dos hipótesis: 1) un estímulo lingüístico provoca una respuesta emocional, afectada por cadencias melódicas que el oyente percibe subjetivamente; 2) es posible desarrollar un modelo de IA capaz de analizar señales de voz, estado hormonal y EEG para evaluar y discriminar emociones en la voz. Al combinar datos acústicos, expresiones faciales y EEG, se busca entrenar un sistema de IA que mapee patrones emocionales en el cerebro con aplicaciones clínicas. Este proyecto integrará la ToM en IA, permitiendo reconocer emociones mediante señales vocales y EEG, y busca identificar áreas cerebrales activas ante estímulos emocionales, desarrollando modelos computacionales validados para la detección emocional.