vendredi 27 août 2010

Quand le cerveau pense la musique


La musique, c’est du bruit qui pense. Victor Hugo.


Quand le cerveau pense la musique...
Peut-on saisir rationnellement le fait musical ? Aujourd’hui, c’est à partir de connaissances neurobiologiques, neuropsychologiques, par des approches telles que le connexionisme, que les chercheurs tentent de répondre à cette question et de saisir le fonctionnement de cette activité perceptive. Actuellement, il est de plus en plus accepté que la musique répondrait à un besoin biologique et ne serait pas qu’une production culturelle, la preuve semble en être qu’elle s’est développée très tôt, il y a environ 40 000 à 80 000 ans et ce dans toutes les sociétés humaines. Mais les biologistes ignorent encore comment se  fait-il que ce sens musical se soit développé chez l’être humain et véhicule depuis une telle charge émotive. 
Dès les années 1850, les scientifiques ont découvert que suite aux différentes lésions cérébrales, la cognition n’était pas touchée dans son ensemble mais que, selon la lésion en question, certaines fonctions spécifiques étaient atteintes. Si, jusqu’aux années 1960-1980, c’est surtout la localisation des fonctions cognitives et les explications neuro-anatomiques qui intéressaient les chercheurs, aujourd’hui, ils interrogent principalement les troubles des patients en terme de transformations subies par le système cognitif et ce, afin de trouver les explications fonctionnelles.  Cette démarche a été appelée neuropsychologie cognitive. C’est à partir d’études comparatives entre le modèle d’un système neural normal et un système « défectueux » qu’elle tente de comprendre  et  découvrir les bases neurales de la cognition. La question qui se pose est de savoir si l’emplacement de la lésion cérébrale qui provoque un certain trouble, ici, par exemple, un trouble de la perception musical, est l’emplacement de cette fonction.
Par rapport à la cognition de l’audition, le but de la recherche des sciences cognitives est de comprendre comment la reconnaissance d’événements sonores est accomplie et sur quels mécanismes d’organisation cérébrale elle s’appuie. Cette discipline cherche à résoudre la question de la spécificité en distinguant entre les mécanicismes qui ont une vocation générale et ceux qui ont une fonction particulière et parvenir ainsi à saisir le niveau cognitif où les domaines se fractionnent. 
Il y a deux façons de considérer la musique en tant qu’apport pour la recherche en sciences cognitives. La première étudie la musique en tant que complexité acoustique et temporelle et cherche à comprendre comment le cerveau parvient à transformer toutes ces vibrations qui heurtent les tympans en perception musicale: en signaux sonores ayant une cohérence acoustique. Cette recherche se concentre donc sur l’étude de la hauteur, du timbre, de la durée, de l’intensité...La seconde façon se penche sur la musique en tant qu’organisation séquentielle complexe et s’interroge sur la manière dont on peut percevoir des relations entre des événements sonores éloignés dans le temps. La musique est décrite comme art du temps qui nécessite pour être comprise, non seulement un acte de mémorisation, mais encore un effort constant pour relier le passé au présent, relation qui est en définitive d’ordre intellectuel et non perceptif. C’est pour sa complexité que la musique est un domaine d’étude intéressant pour interroger les processus perceptifs et cognitifs, pour comprendre l’ « esprit » humain. Ces deux façons de considérer la musique sont bien évidement liées: la première étudie les traitements de l'information qui permettent à l'auditeur d'organiser le champ acoustique et de percevoir la musique, la seconde façon étudie les processus d'interprétation symbolique de la musique. Les deux formes sont en corrélation, les processus qu'étudie la première débouchent sur des représentations mentales qui sont les objets de la seconde. Comme on le sait, il suffit d'effectuer de petites modifications dans une structure acoustique et l'expérience auditive, c'est à dire, l'expressivité de la musique vécue pendant l’écoute, en est tout à fait modifiée. C'est la petite note, le dièse, l'altération, qui fait toute la différence...Il s'agit pour les sciences cognitives de découvrir les processus du traitement de l'information qui permettent à l'auditeur d'attribuer une valeur symbolique aux sons. 
En effet, le pouvoir particulier de la musique est de provoquer en nous des émotions et des sentiments. L’esprit humain dote les sons de sens et les sons prennent alors des valeurs symboliques. Comme l’écrit Imberty, la musique induit des significations au nom d’une ambition universelle de l’homme qui veut se saisir et représenter le monde à sa fantaisie, selon l’ordre de ses désirs et de ses rêves, en substituant à la nature et à sa perception immédiate une culture promulguant des rapports subjectifs nouveaux, instaurant un monde de valeurs opposés à l’univers des choses. Il n’y a pas que la parole qui est porteuse de sens et arriver à comprendre cette dimension symbolique de l’esprit humain permettrait d’appréhender d’autres dimensions de la cognition humaine. Ainsi la sémiologie musicale et la psychologie expérimentale étudient la nature du sens que véhiculent les morceaux musicaux. La musique est un type de communication non verbale, elle est activité sociale qui résulte de l’intention de communiquer avec l'autre. La question qui se pose est de savoir si la musique et le langage relèvent d'une compétence commune à s'exprimer au moyen de signaux sonores ou si ces deux formes de communication reposent sur un même processus de traitement de l'information symbolique. Saisir la signification de la musique ne dépend pas seulement de sa nature sensori-auditive mais aussi de son organisation interne. Le langage, par contre, dispose de codes plus constants. La thèse que langage et la musique ne reposent pas sur les mêmes mécanismes, que chacun à son autonomie fonctionnelle est la plus défendue aujourd’hui car les études neuropsychologiques mettent en évidence, au niveau fonctionnel et neuro-atomique, qu’elle est dissociable des autres fonctions. En effet, une lésion cérébrale peut affecter les habilités musicales en préservant toutes les autres fonctions cognitives. Mais cela reste une hypothèse. En effet, comme le demandent les auteurs de l’ouvrage Le cerveau musicien : L’existence, même exceptionnelle, d’une dissociation de processus est-elle un argument suffisamment fort pour concevoir des relations modulaires et autonomes entre musique et langage ?  Mais dans tous les cas, il est évident  la musique n’est pas une capacité monolithique qui existerait- ou non- chez les individus, elle repose sur un important nombre de composantes qui sont dissociables suivant des règles strictes. Ainsi on va appliquer la méthode dissociation chez les patients dits cérébro-lésés pour découvrir les mécanismes cérébraux. Si un patient est capable d’accomplir une opération X mais pas une opération Y, on en déduira que ces deux opérations sont effectuées par des mécanismes différents. Mais les choses se compliquent quand on prend en compte le fait que les dissociations s’effectuent sur les exécutions des tâches et que celles-ci sont le résultat de nombreuses opérations.  Cette démarche permet de ne plus envisager une simple opposition entre le langage et la musique mais permet d’aborder la perception en étudiant ses différents processus, tels que la mélodie, le timbre, le rythme...dont chacun peut être latéralisés différemment dans le cerveau.
L’audition et la compréhension musicale sont considérées comme une compétence non-verbale. Ces facultés semblent être plus proches des comportements qu’on active dans d’autres domaines que la parole, comme par exemple, la peinture, le jeu d’échecs, la poésie... Selon Isabelle Peretz, il y aurait dans le cerveau des réseaux neuraux spécifiques qui traiteraient la musique, tout comme d’autres traiteraient le langage. C’est une question non résolue. Ainsi, demande le psychanalyste  Jean-François Pratt, la musique n’est-elle pas a-diction, c’est à dire hors langage ? La musique est différente de la parole, d’où notre besoin de mettre des mots sur la musique, de ne faire d’elle qu’un support au langage parlé, pourtant elle est déjà communication. Si on emploie la musique comme langage, elle ne s’en démarque pas moins. En effet, les signifiants qu’elle véhicule sont d’une autre nature, la musique tente de transmettre la jouissance en tant que discours, de communiquer cette dernière et faire naître un sentiment de compréhension mutuelle face à un sentiment ineffable. Si nous reconnaissons la musique principalement grâce à la mélodie, Freud insiste sur le fait que c’est le rythme qui apporte le plaisir. Le rythme qui se prolonge dans le geste, qui s’exprime par le balancement répétitif du corps. On retrouve ce balancement, cette pulsion du retour du même chez les autistes, dans la transe mystico-religieuse.   
Il s’agit d’étudier la musique à travers ses trois aspects que sont la perception, la représentation et l’expression.
Selon la méthode de la neuropsychologie, commençons par étudier un trouble. Les troubles de la perception musicale sont classés en deux catégories. La première  est celle des troubles perceptifs multimodaux qui touchent les sons verbaux, les sons musicaux et les bruits, il y a une difficulté dans la reconnaissance et l’identification des sons. Ce sont les agnosies verbales ou surdité verbale. La deuxième catégorie est celle des amusies pures où seule la perception de la musique est atteinte. Jusqu’aux années 1960, l’amusie était considérée comme une forme des troubles aphasiques. Dès lors, on reliait perception auditive et langage. Ensuite, les chercheurs ont postulé une dissociation. Pour la perception de la musique, la perception de la hauteur d’un son complexe résulterait d’un calcul qui se fait au niveau des Gyri de Heschl de l’hémisphère droit alors que les dimensions musicales concernant la temporalité, l’accès à des représentations préexistantes, relèvent plutôt de l’hémisphère gauche ou ne relève pas d’un hémisphère particulier. On sait que le son qui est une suite d’oscillations de la pression de l’air sur le tympan,  traverse ce dernier sous forme de vibrations,  passe par la chaîne des osselets puis parvient dans la cochlée de l’oreille interne où il est divisé en sons fondamentaux et en sons harmoniques avant de transformer ces différentes fréquences en impulsions nerveuses. Ainsi, celles-ci rejoignent, par le gros nerf auditif, l’encéphale au niveau du tronc cérébral. De là, ils arrivent aux régions auditives du cerveau où elles suivent un dernier traitement avant d’être perçues par l’auditeur. Mais qu’en est-il de la perception de la musique, de la conscience de celle-ci et du sens symbolique qu’elle véhicule ? La musique parvient à l’auditeur sous forme d’ondes sonores complexes véhiculant une structure séquentielle. Sa reconnaissance demande l’intervention de nombreuses composantes, elle implique, comme pour la reconnaissance  de la parole, une sorte de lexique des représentations des airs que nous connaissons.  Ces représentations seraient structurales et ne comporteraient pas d’informations exra-musicales. Comment le lexique adéquat sera-t-il activé ? En étudiant des patients cérébro-lésés, il a été mis en évidence qu’un air musical est analysé d’une part, de façon structurale, suivant ses variations de hauteur caractéristiques et, d’autre part, suivant ses particularités temporelles. La première analyse est nommée organisation mélodique et la seconde organisation temporelle. Il est intéressant de remarquer que dans la société occidentale, la reconnaissance se fait principalement de façon mélodique plutôt que rythmique ou grâce aux paroles. Les variations d’intensité, de timbre, de cadence aident à la reconnaissance mais, du moins dans le système occidental et pour les airs très connus, ne la déterminent pas. Cependant, peut-on vraiment diviser ces deux dimensions ? Selon des chercheurs tels que, par exemple, Jones, Boltz, Kidd, Summerel et Marshburn, la mélodie et le rythme ne sont traités que comme une seule dimension en perception et en mémoire. Mais les données neurologiques infirment cette thèse : dans de nombreux cas de lésion, la mélodie est conservée en mémoire et est reconnue alors que le rythme est perdu et inversement. Il semblerait donc que mélodie et rythme soient dissociables et qu’ils reposent sur des systèmes au moins partiellement indépendants et séparables. Cette dissociation a pu être observée chez les cérébro-lésés. En effet, chez les sujets normaux, comme il s’agit de garder la meilleure représentation possible afin de faciliter la remémoration, l’intégration est inévitable. Mais chez les cérébro-lésés qui souffrent d’une perturbation dans un des deux systèmes, cette intégration ne pourra se faire, au mieux, que partiellement. Si cette intégration se produit, comme cela paraît être le cas, dans un second temps, comment cela se passe-t-il ? A quelle étape précisément ? Aujourd’hui, on sait que les hémisphères ne sont pas spécialisés dans l’exécution des fonctions entières mais que chaque fonction repose sur la mise en jeu d’un ensemble de composantes multiples de traitements dont chacune peut être latéralisées différemment dans les hémisphères cérébraux. Les deux hémisphères participent à la perception de la musique. L’agnosie auditive résulte, en général, de lésions bilatérales, de lésions temporales et les cas d’amusie pure sont liés à des lésions au niveau de la région temporo-pariétale de l’hémisphère droit (pour les droitiers du moins) c’est-à-dire la région qui traite plus spécifiquement de la perception des timbres, des hauteurs. Ainsi, concluent les auteurs de l’article L’énigme de la localisation des amusies :revue et hypothèses, il y aurait une étroite association entre analyse perceptive, jugement esthétique et plaisir musical. Il semble que les régions temporo-pariétales de l’hémisphère droit soient, en grande partie du moins, responsables de la mise en relation des informations perceptives et des règles culturelles d’organisation esthétique de la musique. Isabelle Peretz arrive aux mêmes types de conclusion. Dans Les agnosies auditives : une analyse fonctionnelle, elle présente deux cas d’amélodie sans arythmie qu’elle a étudiés. Dans les deux cas, les patients sont incapables de reconnaître un air qui leur était avant familier. Cela donne à penser que la reconnaissance de la musique est davantage conditionnée par la mélodie que par le rythme. Mais il ne faut pas oublier que ces études sont réalisées en Occident où l’organisation des hauteurs est plus élaborée que l’organisation du temps. Le système mélodique est principalement composé de trois caractéristiques qui contribuent à la reconnaissance de la mélodie : le contour, les intervalles et la tonalité. Entre ces trois caractéristiques, c’est la taille des intervalles qui a, semble-t-il, le plus de poids dans le processus de reconnaissance. Mais chez quels auditeurs en est-il ainsi ? Quelle différence y a-t-il entre les musiciens et les non-musiciens dans ce processus ?
Une étude a été effectuée par Bever et Chirelo en 1974 pour mettre en évidence la différence qui se manifeste entre les cerveaux des musiciens et celui des non-musiciens. Leur hypothèse de départ était que les musiciens utilisent les intervalles pour reconnaître les mélodies et qu'ainsi ils impliquent davantage leur hémisphère gauche dans la reconnaissance musicale. Les non-musiciens par contre se baseraient davantage sur les contours mélodiques, ce qui implique une plus grande utilisation de l'hémisphère droit. Mais dans tous les cas, en premier lieu, le cerveau fixe les contours de la mélodie et ce n’est qu ensuite qu’il encode les intervalles. Le niveau de la perception des contours mélodiques intervient pour la musique mais aussi, semble-t-il, dans la perception des contours intonatoires de la parole. Emmanuel Bigand met en évidence que les résultats de tests cherchant à répondre à cette question varient de l’un à l’autre suivant, par exemple, les méthodes utilisées. On constate, admet-il, des différences neurophysiologiques, on voit une réorganisation fonctionnelle du cerveau des musiciens. Par exemple, la pratique du piano provoque également une augmentation de la surface de l’air motrice liée à chaque doigt de la main.  Mais ce n’est pas pour autant que l’on arrive à saisir l’impact de ce genre de résultats sur la cognition dans son fonctionnement général. Il semble plutôt que l’architecture cognitive d’ensemble qui sous-tend la perception de la musique n’est pas fortement affectée par la formation musicale explicite suivie par les sujets musiciens. Il explique que cela est en somme assez logique étant donné que les non-musiciens qui écoutent fréquemment de la musique bénéficient tout autant que les musiciens d’un apprentissage perceptif implicite. La grande différence qui reste entre les deux groupes étant « simplement » la maîtrise d’un instrument de musique. Mais il a été observé que des musiciens cérébro-lésés  continuaient à faire de la musique sans problème suite à des lésions qui empêchaient les non-musiciens d’en faire autant. Cela semblerait indiquer qu’il existe chez eux, soit un très rapide remaniement fonctionnel du fait de la plasticité cérébrale, soit une organisation particulière du cerveau ( ...) que l’on peut attribuer à un très long apprentissage spécialisé. Selon Lechevalier, Rumbach et Platel, le fonctionnement du cerveau n’est pas un ensemble de processus fixes car, comme cela semble être le cas avec la musique, des stratégies de traitement de l’information spécifiques sont mises en place pour des activités précises. Ainsi les musiciens utiliseraient leurs deux hémisphères cérébraux pour les tâches musicales alors que les non-musiciens n’activent qu’un plus petit nombre de régions précises.
Pour comprendre le phénomène de perception musicale, outre l’études des patients cérébro-lésés, l’étude de patients neutres est un bonne porte d’entrée. Ces patients neutres sont les bébés. On constate que ceux-ci sont très tôt sensibles à la musique. Cela voudrait dire que , très jeunes, avant même la naissance, ils soient capables de lier les événements auditifs successifs, d’effectuer des segmentations en groupes... Pour répondre à ces questions, c’est les méthodes comportementales ainsi que les méthodes d’habituation/réactions qui ont été utilisées. Celles-ci ont mis en évidences que les bébés habitués à certains sons réagissaient lorsqu’on leur en présentaient des nouveaux, et ce, même s’ils ne différaient que par le rythme. Dès l’âge de deux mois, le bébé parvient à différencier des séquences pseudo-mélodiques. Ils sont donc capables d’organiser les séquences en flux auditif. En ce qui concerne la perception du contour auditif, les bébés réagissent aux modifications du contour (montant ou descendant), tout comme les adultes et à dix mois ils manifestent leur préférence pour l’un ou l’autre contour ce qui montrerait leur capacité de catégoriser les contours.  Il est également intéressant de faire le parallèle entre les musiques adressées aux enfants, les berceuses et musiques pour jouer, et le langage qu’utilisent les adultes pour s’adresser aux petits enfants. Ce langage, appelé « motheres» se distingue par la hauteur employée qui est plus élevée, le tempo plus lent, le contour simple et souvent descendant. Ce sont les mêmes caractéristiques que l’on retrouve dans les berceuses, et ce , pour les berceuses de différentes cultures. De plus il y aurait de fortes ressemblances dans les processus de traitement mis en oeuvre par les bébés pour la perception musicale et langagière.  Pour Baruch, cela est une indication en faveur de la thèse qui défend que les mêmes processus entrent en jeu pour le langage et la perception de la musique.
Emmanuel Bigand propose une explication du processus de la perception auditive en trois parties. 
La première étudie la structure des connaissances musicales abstraites. Tout auditeur possède une connaissance spécifique qui lui permet d'analyser la musique de la culture à laquelle il appartient. Par acculturation, il est capable de percevoir d'une part les sons particulièrement modulés qui constituent la musique de sa culture, d'autre part, il en comprend le message intrinsèque, et cela sans être musicien. Il en a une connaissance implicite, pratique, tout comme l'enfant sait parler sa langue maternelle sans en connaître les règles. Comme le langage, la musique est un système structuré selon des règles quasiment mathématiques.  Ainsi, par exemple, en Occident c'est la hauteur qui donne en général sa forme à la musique. C'est donc cette catégorie qui a été le plus étudiée en sciences cognitives. Notre musique est constituée à partir des douze notes de la gamme chromatique. A partir de ces douze notes, on constitue vingt-quatre tonalités principales. L'auditeur occidental en a une connaissance implicite et cela lui permet de remarquer les modulations de la musique, c'est-à-dire, les changements de tonalités. A l'intérieur de ces tonalités, il y a des hiérarchies, il y a une note tonique, une note dominante... De cette hiérarchie, les occidentaux ont également une connaissance tacite. Ainsi, ils sont capables de juger le poids de la note, savent lesquelles sont importantes dans la mélodie et lesquelles ne servent que de passage. Ces différences créent des schémas de tensions et de détentes musicales, pendant les notes de passage on attend l'arrivée de la note importante, les notes de passage installent une tension, une attente que comblent l'arrivée des notes importantes qui stabilisent la musique. Il en est de même pour les relations entre les tonalités, il y a des distances entre elles et celles-ci créent des hiérarchies. Comme pour les classifications intra tonales, nous en avons une connaissance implicite qui nous permet cette fois-ci de juger de longs morceaux, d'analyser des mélodies plus complexes. Lorsqu'on mélange les hiérarchies inter et intra tonales, nous définissons un espace multidimensionnel au sein duquel, si on ajoute les configurations rythmiques, se déploient l'ensemble possible de nos mélodies. Pour les configurations rythmiques, il semble que chaque culture ait ses configurations propres qui, à force de se répéter, sont retenues dans la mémoire à long terme. On connaît donc les capacités de l'auditeur mais comment fait-il pour les mettre en application, comment fait-il pour percevoir et analyser la musique?
C'est à cette question que tente de répondre Bigand dans la seconde partie de son texte: le traitement de la structure des événements, où il formalise le fonctionnement des différents processus mélodiques. Il y aurait, selon Mc Adams, cinq grandes étapes dans le traitement de la structure événementielle. Le premier transforme les vibrations aériennes en impulsions nerveuses. Le second organise l'information acoustique en un ensemble de notes dont on distingue la hauteur, la durée, le timbre, etc., en ce que McAdams nomme images acoustiques cohérentes. Il s’agit ensuite de percevoir la mélodie et pas seulement une suite de notes. Physiquement il n’y a que du successif écrit Fraisse . Pourtant ce que nous percevons, c’est bien de la musique. Comment, à partir d’une succession de notes pouvons-nous entendre une séquence mélodique ? Il faut postuler un présent psychologique ou présent perçu, un temps pendant lequel les stimulations auditives restent présentes pour la perception. Là, les éléments successifs s’organisent en une suite de formes. Ce travail est celui de la mémoire à court terme, la courte suite de notes est gardée en mémoire quatre à cinq secondes, le temps que nous puissions la percevoir en tant qu’ensemble. Comme l’écrit Fraisse : tout se passe comme si le sujet percevait successivement plusieurs groupes successifs d’éléments d’une manière semblable à celle dont nous lisons les lettres d’un texte, c’est-à-dire par des mouvements discontinus, avec, de place en place, des arrêts pendants lesquels se produit la perception. Le groupe de notes est segmenté selon la proximité, la similarité, la continuité ou la symétrie. Cette segmentation est une étape essentielle dans le traitement de l’information musicale car ces segments forment des groupes qui vont influencer la suite de l’analyse musicale. En général, différentes manières de segmenter interviennent. En musique contemporaine, par exemple, plusieurs processus de groupements peuvent entrer en conflit. C’est ce qui en rend l’écoute parfois difficile, notre cerveau a du mal à traiter, a du mal à organiser l’information perçue. 
En plus de cette segmentation, le système perceptif va dégager un niveau de battements réguliers (séparés par un même laps de temps) et va en interpréter certains comme importants et d’autres comme faibles. C’est la structure métrique qui est saisie par le sujet.  C’est le rythme qu’on bat du pied, par exemple. Il est très intéressant de constater qu’en vérité, physiquement il est impossible de dégager une métrique précise. Celle-ci est une abstraction, une idéalisation. Pourtant, tout auditeur saisit une métrique. Cela met en évidence d’importants processus cognitifs complexes qui permettent à l’auditeur de saisir une régularité qui n’existe pas physiquement. De même que les tons forts et faibles, les structures rythmiques créent des attentes, des tensions et des détentes musicales.
Pour le moment, l’auditeur en est à une perception d’une juxtaposition de notes sans relations, on  est donc encore assez loin de l’expérience de la perception musicale. La quatrième étape du traitement de l’information va nous permettre de nous en rapprocher. La fonction de celle-ci consiste à préserver quelque chose de l’information que contient chacun des groupes afin que des relations entre ces groupes puissent se mettre en place. Comment faire pour garder en mémoire l’ensemble des séquences alors que nous avons vu que nous gardons une séquence en tête environ quatre secondes, le temps qu’elle soit remplacée par la séquence suivante ? En comparant avec les méthodes mises en place pour retenir de longues suites de mots, de chiffres, de lettres, il a été démontré que le cerveau procède par organisation hiérarchique. Il en est de même pour la musique. Ainsi l’information musicale peut être représentée de façon algorithmique par une hiérarchie d’opérateurs. Ces opérateurs sont ceux, par exemple, des hiérarchies harmoniques qui structurent les relations inter et intra tonales. Ce sont elles qui permettent au compositeur de composer et à l’auditeur de comprendre la musique. Mais il ne faut pas oublier le rythme. En effet, une note forte jouée sur un temps faible aura moins d’importance que si elle était jouée sur un temps fort.  Le sujet humain encoderait, selon les sciences cognitives, l’information musicale sous forme de hiérarchie d’événements. Ce n’est pas pour autant qu’il n’y a pas d’autres types de représentation, mais on n’en sait encore fort peu sur le fonctionnement de notre propre cerveau.
Enfin, la dernière étape est celle qui est censée répondre à la question que pose la musique en tant que discours. Comment se fait-il qu’on a l’impression, en entendant un morceau de musique, qu’il progresse, qu’il se développe vers un but précis ? Cela est dû à la syntaxe tonale, la dynamique de la musique reposant sur des instants de tensions suivis de moments de détente. Cette dynamique est celle qui nous donne accès à la mélodie. Une fois que l’harmonie et la rythmique fournissent ensemble les moments de détente et de tension, nous entendons de la musique.  
Reste à comprendre comment ces moments provoquent en nous des émotions et des sentiments. Selon William James, il y a deux niveaux d’intensité pour le jugement esthétique de la musique. Le premier porte sur la qualité formelle de la composition. Ainsi, les dissonances qui enfreignent les lois de l’harmonies créent un désagrément psychologique et font apparaître des ondes d’expectation bilatérales de grande amplitude au niveau des parties inférieures du lobe frontal. Il y aurait donc des détecteurs de dissonances dans le cerveau et c’est leur activation qui nous en rend l’écoute désagréable. 
Le deuxième niveau d’intensité est celui qui s’accompagne de sensations, de vécu émotionnel. 
Cette question reste jusqu’à présent peu étudiée, selon Bernard Lechevalier, Isabelle Peretz, Meulders et d’autres qui s’y intéressent, ce désintérêt est dû à une conception des émotions en tant que subjectives et variables, dépendant de l’individu. Les scientifiques ont jusqu’à présent tendance à étudier le cerveau en tant que machine à traiter de l’information sans lien émotionnel. Pourtant, il existe des airs musicaux sur lesquels tout le monde, ou du moins tous les hommes partageant une culture commune, se met d’accord pour qualifier de triste ou joyeux. Ce serait donc à partir d’une même connaissance générale de la musique qu’on reconnaît les émotions qu’elle véhicule. Pour juger de la qualité émotive d’une musique en termes de joyeux ou triste, on s’appuie sur l’analyse de deux propriétés principales de la musique que sont le mode et le tempo. Le mode est la distribution des intervalles dans la gamme alors que le tempo qualifie le rythme, la vitesse à laquelle les événements sonores arrivent dans la mélodie. Ce sont les extraits en mode majeur et à tempo rapide qui sont qualifiés de gais alors que les airs en mode mineur et à tempo lent sont dits tristes. Lorsqu’on combine tous ces paramètre, le jugement devient difficile. C’est ce qui a été mis en avant par les recherches de Peretz, Gagnon et Bouchard.  De plus, on peut diviser la musique en deux grands groupes, le premier étant celui des musiques induisant de grandes tensions musicales et le second composé des musiques à faible tension. Les musiques du premier groupe sont associées par les auditeurs à des expressions de force, de passion,  d’exaltation, de violence, d’agressivité, de tourment…alors que le second évoque des sentiments de solitude, nostalgie, désespoir, rêverie, calme, profondeur, douceur…Selon les différentes combinaisons des stimuli musicaux, tels que la mélodie, le rythme, l’intensité et le tempo, par exemple, l’auditeur ressent différentes émotions. L’auditeur construit une représentation mentale de la structure formelle et temporelle, une structure plus ou moins hiérarchisée de l’œuvre. Il procède par les cinq étapes du traitement d’information précitées. Cette représentation reçoit ensuite des connotations émotives et une  valeur symbolique fondée sur le vécu personnel du sujet. La musique évoque des images mentales complexes formées à partir des variations de hauteur, de volume, de rythme…On constate cela par les termes employés pour qualifier la musique en tant qu’ondoyante, claire, déferlante, lourde... 
Le mode et le tempo ont une grande importance pour juger de l’émotivité mais n’aident pas particulièrement pour la reconnaissance du morceau. Quelles relations y a-t-il entre l’interprétation de l’émotion et la reconnaissance musicale ? Deux thèses sone envisagées. Selon la première, tous deux reposent sur un même système perceptif et ce ne seraient que les indices utilisés qui seraient différents, selon la deuxième chacun est basé sur un système d’analyse perceptive différent. Il semblerait, d’après les études expérimentales, que ce soit la seconde hypothèse qui soit correct. Une preuve en est que le jugement émotionnel est quasi immédiat alors que la reconnaissance de la mélodie nécessite un temps nettement plus long, elle met huit fois plus de temps.  De plus, cette thèse est appuyée par la présence d’une double dissociation neuropsychologique. Celle-ci a été mise en évidence par l’étude des patients cérébro-lésés souffrant d’une prosopagnosie qui, alors qu’ils n’arrivent pas à reconnaître un visage, n’ont aucun  problème pour reconnaître l’expression que ces visages véhiculent et inversement. Cette dissociation fonctionnelle a été confirmée chez les patients normaux grâce à l’imagerie fonctionnelle ; les réseaux neuronaux qui servent à la reconnaissance des visages se situent dans la région ventro-mésiale de l’hémisphère droit alors que les réseaux servant à l’interprétation des expressions de ces visages se trouvent dans la partie latérale du cortex occipital droit. En se basant sur ces découvertes, les chercheurs  posent une dissociation similaire dans le domaine de la musique, ce qui semble être confirmé par les études de patients atteint d’amusie et par l’imagerie fonctionnelle qui met en évidence que les émotions activent des substrats anatomiques qui se sont associés à des aires paralimbiques, frontales et à des régions du procunéus alors que la perception musicale active le cortex auditif secondaire.  
Une critique importante doit être adressée aux pratiques de la neuropsychologie. Celle-ci touche à sa prétention d’universalité. En effet, nous avons tendance à considérer notre musique comme universelle, pourtant elle est particulière, culturelle. La musique occidentale est tonale alors que les musiques traditionnelles sont modales, elle est polyphonique alors que la majorité des autres musiques sont monadiques ou hétérophoniques. Les travaux de la neuropsychologies n’étudient principalement que les sujets occidentaux, dont la musique est très formelle. Les musiques traditionnelles ne sont pas basées sur des critères esthétiques,  sur des critères formels mais font partie intégrante de la vie, de la société où elles se développent. Ces musiques rythment la vie du groupe qui l’a produite. Dans ces groupes, l’individu n’est pas un auditeur passif, il partage toujours les émotions que véhicule la musique. La question que posent Pierre Messerli et Nicolas Sordet porte sur l’intérêt de la neuropsychologie pour ces musique où l’individu est tellement impliqué : peut-elle l’ignorer ? Etant donné que la neuropsychologie prétend vouloir également étudier les aspects psychologiques des phénomènes, il semble que non. Mais, comme des disciplines telles que l’ethnopsychologie le mettent en évidence, les laboratoires cherchent en général à produire un objet qui répond à leurs exigences méthodologiques. Ainsi, les sciences prétendent étudier des objets objectifs, stables. Dès lors, ils posent l’universalité de ceux-ci. S’ils veulent s’aventurer dans un système modal, il leur faudra un tout nouvel appareil épistémologique, mettre à mal un certain nombre de thèses acceptées en général comme vraies (telle la dissociation langage musique, par exemple...). Etant donné que les sciences cognitives cherchent à saisir la musique rationnellement, on peut comprendre qu’étudier des sujets dont le rapport à la musique n’est pas rationnel, dont la musique n’est pas une construction mathématique qui obéit à une grammaire somme toute fort rigoureuse pose problème et que ces disciplines ne disposent pas des outils pour pouvoir le faire. Reste à savoir s’ils en disposeront un jour, disent les sceptiques.















Aucun commentaire:

Enregistrer un commentaire