Reconocimiento de emociones musicales a través de datos y técnologias digitales (Juan Davida Lujan Villar, Roberto Carlos Lujan Villar) Articulo Comunicación y Hombre 2020

Introducción

El reconocimiento de emociones musicales (REM) (Music Emotion Recognition MER) es un campo de investigación científica reciente y en plena evolución. Se deriva de dos campos mayores: 1) la recuperación de información musical (RIM) (Music Information Retrieval MIR); y 2) la computación afectiva (Affective Computing) (Calvo, D’Mello, Gratch y Kappas, 2014; Picard, 2000). A grandes rasgos se puede decir que el REM gira en torno a varias ideas respecto a la comprensión psicológica de la relación entre el afecto humano y la música, de lo cual se desprenden tres ideas centrales de investigación; 1) la emoción es percibida e identificada con la escucha musical; 2) la emoción es inducida y experimentada mediante la representación de la escucha musical, lo cual difiere de la emoción percibida; y 3) la emoción es trasmitida mediante una intención comunicativa explicita (Yang y Chen, 2011; Yang, Dong y Li, 2018). Como se puede comprender a partir de lo anterior, las emociones percibidas son más intersubjetivas y clasificables que las emociones experimentadas más intrasubjetivas, arraigadas de manera cultural y dependientes de la memoria (Aljanaki, 2016, p. 22-23; Panda, Malheiro y Paiva, 2018a).

Una de las ideas centrales del REM radica en la capacidad de poder determinar mediante sistemas automáticos ingresando diversos datos (señales musicales) y variables (parámetros computacionales), cuáles y qué tipo de emociones son percibidas desde las composiciones musicales, e intentan percibir cómo cada una de las formas de sus rasgos estructurales pueden producir cierto tipo de reacciones características en los oyentes.

 

 

 

 

 

 

 

La Tabla 1 presenta los principales conceptos musicales indagados en el REM y sus rasgos (algoritmos) convencionales usados por la comunidad de especialistas en este campo. Los estudios revelan que las personas relacionan los estados anímicos percibidos y experimentados con etiquetas y adjetivos, aunque se advierte que el factor temporal es primordial en su intensidad y características de duración, por estas razones a nivel metodológico en este contexto, a las emociones se le asigna un atributo que mide la intensidad de la emoción en una escala determinada (Deng, Leung, Milani y Chen, 2015).

En la actualidad, existe una diferencia específica proveniente de la psicología de la música sobre la concepción de los términos emoción (emotion) y estados anímicos (mood) en el abordaje de los modelos REM, una discusión que se extiende de manera general al campo de la psicología de la música (Juslin, 2019, p. 46-48). En este sentido, las emociones son concebidas como una reacción breve a nivel temporal (minutos u horas) e intensas a propósito de la percepción derivada de un estímulo, sujeto u objeto especifico. A diferencia, los estados anímicos precisan estados emocionales más duraderos (días, semanas o meses), son menos intensos, y reflejan una emotividad definida por una inclinación afectiva global, debido a que no dependen de la reacción a un objeto puntual o un estímulo contextual.

Las perspectivas del REM giran en torno a las ciencias computacionales y la teoría psicológica de la música, sobre lo cual existen como mínimo tres enfoques y abordajes:

• Los modelos categóricos basados en la propuesta inicial de Hevner (1936);

• Los modelos dimensionales diseñados por Russell (1980) y Thayer (1989); y

• Las propuestas hibridas que configuran la detección de la variación músicoemocional (DVME).

Entre las estrategias más usuales se encuentran los conjuntos de anotaciones músicoemocionales realizadas por psicólogos especialistas sobre extensos corpus musicales y la clasificación a través de etiquetas o tags emocionales, realizadas por comunidades de usuarios a partir de canciones específicas, sobre lo cual se han creado estrategias como juegos o portales interactivos de Internet y redes sociales dedicadas a recomendaciones musicales, un campo ligado a las exploraciones REM (Deng et al., 2015, Yang et al., 2018).

Por ejemplo, aplicaciones como Emotion Face Clock (Schubert, Ferguson, Farrar, Taylor y McPherson, 2013), MoodSwings (Speck, Schmidt, Morton y Kim, 2011), o concursos de evaluación de modelos investigativos, algoritmos de optimización e investigaciones empíricas entre las cuales figuran el anual Music Information Retrieval Evaluation eXchange (MIREX), una comunidad ampliamente reconocida en la evaluación RIM, y el workshop MediaEval Database for Emotional Analysis in Music (DEAM) (Aljanaki, 2016), dedican sus esfuerzos a focalizar a través de diferentes perspectivas, la medición y predicción de emociones musicales y procesos relacionados.

Los sistemas dedicados a la recuperación de datos basados en las emociones o Emotion- Based Retrieval Tools conforman un importante campo de la investigación y práctica del REM. Algunas de estas estrategias de aplicación son los sistemas de recomendación musical a través de la creación de comunidades de melómanos, críticos y músicos, la generación de playlists o listados musicales automáticos con fuertes rasgos que parten de la inteligencia artificial y la categorización musical con fines de evaluación, consumo y crítica musical.

Deja un comentario