Un equipo de investigación coordinado por la Universitat Autònoma de Barcelona (UAB) ha llevado a cabo un estudio que plantea una cuestión interesante: ¿puede la música creada por inteligencia artificial (IA) generar una respuesta emocional más intensa que la compuesta por personas? Los resultados, publicados en la revista Plos One, apuntan a que sí.
Un experimento con 88 personas y tres tipos de música
El estudio, en el que también colaboran el Instituto RTVE en Barcelona y la Universidad de Ljubljana (Eslovenia), analizó cómo reaccionan las personas al ver vídeos acompañados por distintos tipos de música.
Participaron 88 personas, que visualizaron los mismos clips audiovisuales pero con tres variantes sonoras: música compuesta por humanos, música generada por IA usando instrucciones complejas (prompts detallados) y música de IA creada a partir de instrucciones más simples.
Durante la proyección, se midieron varios indicadores fisiológicos para detectar la respuesta emocional de cada participante. Entre ellos, la dilatación de las pupilas, el parpadeo y la respuesta de la piel.

Más activación emocional con música de IA
Los datos obtenidos revelaron que la música generada por IA provocó una mayor dilatación pupilar, lo que se interpreta como un signo de mayor activación emocional. Además, las composiciones realizadas con instrucciones más detalladas generaron un número más alto de parpadeos y cambios en la piel, indicadores que se relacionan con una mayor carga cognitiva.
Desde el punto de vista de los participantes, la música creada por IA fue descrita como “más excitante”, mientras que la de origen humano se percibió como más familiar.
Procesamiento cerebral diferente
El primer autor del estudio, Nikolaj Fiser, explicó que ambos tipos de música generada por inteligencia artificial “condujeron a una dilatación pupilar más elevada y fueron percibidos como más estimulantes emocionalmente” en comparación con las composiciones humanas.
Fiser añadió que estos resultados “sugieren que descodificar la información emocional de la música generada por IA puede requerir un esfuerzo cognitivo más grande”. Esto podría implicar que el cerebro procesa este tipo de música de una forma diferente, tanto en lo mental como en los mecanismos usados para interpretar la emoción.
Este estudio abre nuevas vías para entender cómo influye la tecnología en la percepción artística y cómo responde el cuerpo humano ante composiciones no creadas por personas.

'Las Nenas', un claro ejemplo del éxito de la IA
Este debate sobre las emociones y la música generada por IA llega justo cuando se ha conocido el caso de Las Nenas, un grupo ficticio formado por supuestas jóvenes artistas llamado Viviana, Claudia y Naiara. Presentaban su estilo como pop melódico y habían publicado un álbum llamado Último baño. En redes sociales y plataformas como Bandcamp, su imagen y biografía eran indistinguibles de las de cualquier banda emergente.
Sin embargo, todo era parte de un experimento. Detrás del grupo no había personas reales, al menos no en los roles artísticos que se atribuían. La música había sido generada con ayuda de inteligencia artificial, concretamente con el programa Udio, mientras que las letras sí fueron redactadas por humanos. Así lo reconocieron sus creadores a elDiario.es después de que crecieran las sospechas en redes.
Ante esta polémica, su distribuidora retiró sus canciones de las plataformas de streaming. Tras hacerse pública la historia, publicaron un comunicado explicando el uso de la herramienta de IA y animando a otras personas a componer nuevas canciones para el proyecto. Curioamente esta polémica vino poco ante de que sacaron su EP "El último año" que no se vió salpicado por esta polémica ya que consiguieron vender toda la tirada de discos, que era de 99 copias.