Dans les articles phares du CRBLM, nous soulignons le travail actuel et en cours de nos membres sur divers sujets.
Comment savoir qu'un violon a peur ? Interpréter les signaux émotionnels dans le langage et la musique.
Traduction par Audrey Delcenserie
Si vous êtes à la recherche de la musique d’ambiance parfaite pour l’Halloween, écoutez la pièce In Vain de Georg Friedrich Haas. Même confortablement assis sur une chaise avec une tasse de thé, cette pièce vous donnera froid dans le dos. Comment cette pièce communique-t-elle si bien la peur ?
Nous pouvons vivre des émotions directement ou encore les percevoir indirectement par le biais de différents médias, tels que le langage et la musique. Il y a des indices auditifs dans la musique et dans le langage qui peuvent signaler différentes émotions, mais la capacité des gens à utiliser ces indices peut varier.
La plupart des études s’entendent sur le fait que nous utilisons un modèle bidimensionnel pour identifier les émotions. La première dimension est la valence : une façon élégante de dire que l’émotion peut être perçue comme étant positive ou négative. La joie et la paix sont des exemples de valence positive, tandis que la colère et la tristesse sont des exemples de valence négative. La deuxième dimension, la stimulation, concerne la quantité d’énergie portée par une émotion. La joie et la colère sont des émotions à stimulation élevée, tandis que la tristesse et la paix sont à des émotions à faible stimulation. La valence et la stimulation fonctionnent indépendamment pour caractériser une émotion : par exemple, la colère a une valence négative et une stimulation élevée.
Valeurs de stimulation et de valence de différents stimuli (heureux, triste, en colère et neutre). Adapté de Paquette et collègues [2]
Les signaux auditifs, comme la musique et le langage, ont des qualités qui nous aident à séparer les deux dimensions, soit la valence et la stimulation. Il peut s’agir de l’intensité sonore, de l’énergie, de la hauteur (un son aigu ou grave) ou du rythme (le rythme de la parole ou le tempo musical). Par exemple, les paroles et la musique qui sont tristes ont moins d’énergie dans les hautes fréquences, ce qui produit à un son plus « sombre » qui communique une faible stimulation. D’autres qualités d’un son triste peuvent aussi contribuer à sa valence négative.
Les travaux à venir de Maël Mauchand et Marc Pell démontrent que lorsque les gens se plaignent de quelque chose, ils utilisent généralement une hauteur qui est à la fois plus aigu mais aussi plus variable : des indices qui évoquent la colère, la surprise et la tristesse. Par ailleurs, l’intensité des émotions communiquées par la parole semble être moins affectée par la culture que les émotions communiquées par les expressions faciales (travaux à venir de Shuyi Zhang, également au laboratoire Pell).
Quelles aires du cerveau traitent les signaux émotionnels de la musique et du langage ?
À l’aide de l’IRM, Paquette et ses collègues ont récemment réalisé une étude dans laquelle les participants devaient écouter des « émotions sonores » (ou sons émotionnels) et, en utilisant l’apprentissage automatique, ont tenté de déterminer quelles zones du cerveau encodent les différentes émotions de manière fiable. Ces zones étaient le gyrus temporal supérieur, le sillon temporal supérieur antérieur et le cortex prémoteur supérieur. Les modèles d’activité cérébrale dans ces domaines étaient similaires pour les émotions vocales et les émotions musicales.
Processus probables de la perception des émotions. Le son entre dans le cerveau, qui traite les signaux auditifs et détermine l’émotion dans les zones temporales et prémotrices supérieures, l’évaluant en termes de stimulation et de valence. Notez que, dans l’étude, les régions cérébrales identifiées étaient bilatérales (des deux côtés du cerveau). Adapté de Paquette et collègues [1] and [2].
Si nous ne sommes pas en mesure de traiter normalement ces signaux auditifs, notre capacité à identifier les émotions dans la musique et le langage pourra en être compromise. Par exemple, les personnes portant des implants cochléaires peuvent obtenir de bonnes informations sur le rythme à l’aide de leurs appareils auditifs, mais elles ne sont pas en mesure d’obtenir des informations très fiables à propos de la hauteur. Cela rend difficile le déchiffrage des émotions sonores dans la musique ainsi que dans le langage. Des travaux plus récents des laboratoires Peretz et Lehmann ont démontré que les porteurs d’implants cochléaires accordent beaucoup plus d’attention à l’énergie globale et à la rugosité du son, car ils sont moins capables d’utiliser la hauteur tonale. Cela ne semble toutefois pas suffisant pour qu’ils puissent séparer les dimensions de la valence et de la stimulation. De plus, la musique, qui repose plus fortement sur la hauteur pour indiquer l’émotion, est particulièrement difficile pour les porteurs d’implants cochléaires.
Les scores d’identification des émotions chez les personnes portant des implants cochléaires démontrent une stratégie unidimensionnelle. Adapté de Paquette et collègues [2].
Cela se reflète également dans l’activité cérébrale. Deroche et ses collègues ont constaté que, pour les porteurs d’implants cochléaires, la réponse du cerveau aux éclats émotionnels sonores est moins robuste et plus étalée dans temps. La musique a cependant une réponse moins robuste que la voix, et ce, même chez les personnes sans implant.
D’autre part, l’émotion dans la musique est facilement perçue par les personnes atteintes d’un trouble du spectre de l’autisme, peut-être parce qu’elles ont généralement une bonne perception de la hauteur musicale. Il s’agit d’une population qui a normalement du mal à interpréter les émotions. Cette capacité intacte à percevoir les émotions peut être très utile en termes de diagnostic (pour différencier l’autisme des autres conditions), mais aussi en termes de thérapie (pour aider les personnes autistes à se renseigner sur les émotions et à transférer ces connaissances à d’autres situations). Ève-Marie Quintin, membre du CRBLM, a récemment examiné ce sujet dans un article publié dans le journal Frontiers in Neural Circuits.
Une autre population qui est avantagée lorsqu’il s’agit de déchiffrer les émotions musicales est, évidemment, les musiciens. Les travaux préliminaires de Whitehead et d’Armony, réalisés à l’aide de l’IRMf, démontrent que même si les cerveaux des musiciens et des non-musiciens réagissent de la même manière aux émotions vocales, ils traitent l’émotion musicale différemment.
Pour résumer, le cerveau capte les signaux auditifs, qui indiquent la valence ou la stimulation et les additionne tous pour déterminer quelle émotion est communiquée. Si nous n’avons pas accès à tous les signaux auditifs (comme pour les individus porteurs d’implants cochléaires), ce processus peut être difficile, en particulier en ce qui a trait à la musique. D’autre part, l’autisme et la formation musicale sont associés à un traitement émotionnel intact ou amélioré de la musique.
Bonus : si vous voulez plus de musique pour votre bande sonore d’Halloween, consultez l’article This Is What Terror Sounds Like publié sur le site The American Scholar.
Références
* Les références suivies d’un astérisque identifient des présentations aux conférences
Mauchand M & Pell MD. (2019). Emotive attributes of complaining speech. Auditory Perception & Cognition; Montreal, Canada.*
Zhang S & Pell MD. (2020). Cross-cultural Differences in Vocal Expression and Emotion Perception. Society for Personality and Social Psychology, New Orleans, USA.*
Paquette S, Takerkart S, Saget S, Peretz I, & Belin P. (2018). Cross-Classification of Musical and Vocal Emotions in the Auditory Cortex. Annals of the New York Academy of Sciences 1423 (1): 329–37.
Paquette S, Ahmed GD, Goffi-Gomez MV, Hoshino ACH, Peretz I, & Lehmann A (2018) Musical and vocal emotion perception for cochlear implants users, Hearing Research, 370, 272-282
Deroche MLD, Felezeu M, Paquette S, Zeitouni, A, & Lehmann A. (2019). Neurophysiological differences in emotional processing by cochlear implant users, extending beyond the realm of speech, Ear and Hearing 40, 1197-1209.
Quintin EM. (2019). Music-Evoked Reward and Emotion: Relative Strengths and Response to Intervention of People With ASD. Frontiers in neural circuits, 13, 49.
Whitehead J & Armony JL. (2019). Combined fMRI-adaptation (fMRI-a) and multivariate pattern analysis (MVPA) reveal difference between musicians and non-musicians in response to auditory emotional information, Social & Affective Neuroscience Society, New York, USA.*