Crean en Granada una inteligencia artificial capaz de aprender y expresar emociones

Entre las posibles áreas de impacto se incluyen la salud, la educación, la interacción social o el entretenimiento

Convocadas las 17 plazas para ser funcionario de la UGR que quedaron desiertas tras no aprobar ningún opositor

Imagen generada por IA remitida por la UGR. / R. G.

La investigación doctoral de Alberto Hernández Marcos en la Universidad de Granada (UGR) ha desarrollado un marco de autoaprendizaje emocionar para que agentes de inteligencia artificial (IA) "aprendan y expresen patrones emocionales de manera autónoma", según indica la UGR en un comunicado.

Hernández Marcos considera “que este avance representa un paso importante hacia sistemas de IA más humanos y efectivos”. El estudio tiene por título LOVE, acrónimo de Latest Observed Values Encoding o, en español, Codificación de los últimos valores observados. 

Las emociones son fundamentales en la naturaleza de los seres vivos, evolucionando como un mecanismo clave para la supervivencia. Sin embargo, los investigadores que han intentado dotar a las máquinas de esta ventaja natural, explica Hernández Marcos, “carecen de un marco claro para implementar emociones desde principios básicos. De hecho, los modelos actuales suelen basarse en soluciones específicas y rígidas que limitan mucho su capacidad de generalización”, recoge el comunicado remitido por la UGR.

A partir de ahí, su investigación se propuso establecer una base científica sólida que explique cómo las emociones pueden emerger espontáneamente de percepciones de agentes artificiales en su entorno, lograr su interpretación con un sistema para identificar las emociones aprendidas con patrones emocionales documentados en la literatura científica de manera automática y validar estos patrones emocionales a través de experimentos con observadores humanos, detalla el comunicado.

El marco de trabajo combina principios de aprendizaje por refuerzo y aprendizaje no supervisado para analizar datos cruciales del entorno de un agente, como recompensas recientes, expectativas futuras y estados anticipados.

A través de una red neuronal entrenada con datos sin etiquetar, el sistema identifica patrones temporales que se asocian a emociones básicas. Esta red neuronal actúa como codificador emocional, una especie de sistema límbico artificial para la IA, que genera emociones sintéticas durante su funcionamiento.

LOVE cuenta también con la participación de la Facultad de Psicología de la UGR. Así, en uno de los experimentos se requería que un agente de IA que debía alunizar una nave en un paisaje rocoso e incierto adquirió ocho patrones emocionales distintos –sufrimiento, satisfacción o miedo, entre otros–, que fueron luego evaluados por su coherencia situacional y alineación con la dinámica emocional humana.

Para ello, en colaboración con investigadores de la Facultad de Psicología, se diseñó un estudio de atribución emocional en el que participantes humanos valoraron la correspondencia entre las emociones simuladas y las dimensiones clásicas de placer, activación y dominancia. El estudio probó que los humanos podían inferir el estado emocional sintético del agente con bastante exactitud, que además se contrastó después con referencias académicas del campo de la psicología.

En definitiva, los resultados clave del experimento muestran que el sistema identifica las emociones básicas al aprender patrones emocionales coherentes y situacionalmente relevantes, que reproducen dinámicas emocionales naturales.

También que los resultados son validables con observadores humanos, ya que los participantes del estudio demostraron una alta concordancia estadística en la identificación de las emociones simuladas, alineándolas estrechamente con los estados internos de los agentes.

Finalmente, se deducen numerosas aplicaciones prácticas ya que este marco puede integrarse en robots sociales, agentes conversacionales y sistemas educativos, con potencial de mejorar su capacidad para adaptarse a las dinámicas emocionales humanas.

El marco desarrollado no solo amplía la comprensión científica de cómo las emociones pueden surgir en sistemas artificiales, sino que también sienta las bases para nuevas aplicaciones prácticas.

Entre las posibles áreas de impacto se incluyen la salud, con robots capaces de interactuar emocionalmente con pacientes para mejorar su bienestar, la educación, con tutores virtuales que adapten su comportamiento a las emociones de los estudiantes, la interacción social, con sistemas conversacionales que respondan de manera más natural y empática, o el entretenimiento, con personajes dotados de comportamientos más realistas y acordes a cada situación.

En el futuro, este enfoque podrá extenderse para abarcar emociones más complejas y su integración en escenarios avanzados como la robótica autónoma o la inteligencia colectiva.

No hay comentarios

Ver los Comentarios

También te puede interesar

Lo último