Kurz vor der Buchmesse veröffentlichte das Max-Planck-Institut für Kognitions- und Neurowissenschaften (MPI CBS) eine neue Studie, die sich mit der nicht ganz uninteressanten Frage beschäftigt: Wo in unserem Gehirn ist eigentlich der Bereich, der sich mit dem Erfassen von richtiger Musik beschäftigt? Wo die Sprachkorrektur sitzt, das weiß man seit 150 Jahren. Aber auch Musik ist eine Sprache, die unser Gehirn lernen und verstehen muss. Möglichst fehlerfrei.

Das vom Mediziner und Anatomen Pierre Paul Broca gefundene Broca-Areal ist nicht das einzige Gebiet in unserem Gehirn, das mit dem Spracheverstehen beschäftigt ist. Aber es ist so wichtig, dass, wenn es gestört wird, der Mensch unter heftigen Sprachstörungen leidet. Unter anderem wohl, weil das Broca-Areal zentral verantwortlich dafür ist, Fehler beim Sprechen zu erkennen. So eine Art stiller Reflexions- und Kontrollabschnitt, der dafür sorgt, dass unsere Sprache stimmt.

Die Vorgänge zur Bildung von Sprache in unserem Kopf sind wesentlich komplexer. Deswegen taten sich die Forscher auch schwer, ein ähnliches Kontrollzentrum für die Musik zu finden. Vermutet wurde schon lange, dass es sich – da das Broca-Areal im linken Schläfenlappen liegt – wohl im rechten Schläfenlappen befinden könnte. Nur: Wie weist man so etwas nach, wenn genau wie beim Sprechen ein Feuerwerk durch große Teile unseres Gehirns lodert, also auch hier unterschiedliche Gehirnbereiche gleichzeitig „feuern“? Musik ist ja komplex – selbst kleine Hänschen-Klein-Lieder. Und sie ist strukturiert. Sie besteht – wie unsere Sprache – aus antrainierten Strukturen, die wir wiedererkennen.

Und weil unser Gehirn ja keine Fertigteile speichert, ist das, was wir hören, natürlich ein komplexes, hochemotionales Gedankenerlebnis. Beim einen gibt’s mehr Feuer bei Wagner-Klängen, haben die Leipziger Kognitionswissenschaftler ja kürzlich herausgefunden, bei anderen gibt’s bei Free Jazz mehr Vulkanismus. Aber zugrunde liegen immer grammatikalische Strukturen – jene Grundstrukturen, die uns Musik „wiedererkennen“ lassen.

Man wird ja vorsichtig, wenn man diese Studien so liest. Denn viele Worte, mit denen wir das zu beschreiben versuchen, was in unserem Kopf abläuft, sind viel zu sehr unserem täglichen Erleben entnommen. Und sie erinnern noch an die alten Zeiten, als die Gehirnforscher noch glaubten, für jede Denktätigkeit gäbe es einen genau lokalisierbaren Ort in unserem Gehirn. Das war, bevor sie merkten, dass bei Verletzungen auch andere Gehirnareale einspringen können, und noch lange, bevor sie dem Denken ihrer Forschungsobjekte unterm MRT zuschauen konnten.

Auch Vincent Cheung und Angela D. Friederici mit den Kollegen vom Max-Planck-Institut für Kognitions- und Neurowissenschaften (MPI CBS) haben für ihre Suche nach dem Zentrum für die Musik-Grammatik den modernen Magnetresonanztomographen (MRT) im Institut benutzt. Diesmal haben sie lauter Musiker druntergesetzt, ihnen aber weder Wagner noch Jazz vorgespielt, sondern eine von Vincent Cheung, Doktorand am Max-Planck-Institut für Kognitions- und Neurowissenschaften, extra komponierte Musik, die er selbst Alien-Musik genannt hat. Denn er wollte „lokale Störungen“ ausschalten – also auch bestimmte Musikvorlieben der Musiker.

Also hat er eine „zufällig generierte Kombination an Dreiton-Abfolgen, die in Palindrom-ähnlicher Weise kombiniert werden“, eingespielt und den Musikern vorgespielt, bevor sie unters MRT kamen. Und dort sollten sie sich die Melodie im Kopf abspielen und analysieren. Und der Ort, an dem das geschah, würde dann unterm MRT durch besondere Aktivitäten der Gehirnzellen auffallen.

Wenn wir alles richtig verstanden haben, hat das auch genauso geklappt, wie sich Cheung das gedacht hat, und der rechte Schläfenlappen fiel durch erhöhte Aktivitäten auf. Was man ja dann so interpretieren kann, dass unser Gehirn hier kontrolliert, ob die Musik stimmt – oder Fehler drinstecken. Sind ja nicht nur Musiker, die Kopfschmerzen bekommen, wenn jemand falsch spielt.

Was einen natürlich auf den gar nicht abwegigen Gedanken bringt, ob eine nicht unerhebliche Zahl Menschen eigentlich Störungen im rechten Gehirnlappen hat, weil sie lauter fürchterliche Musik anhören. Und zwar sehr viele Leute, wenn man sich die Hitparaden-Spitzen so anschaut.

Ist nur so ein Gedanke.

Es könnte auch mit einem anderen Effekt zu tun haben, den die Forscher unterm MRT auch sehen konnten.

„Interessanterweise entdeckten die Wissenschaftler auch, dass die Probanden umso besser einordnen konnten, ob eine Sequenz grammatikalisch korrekt war oder nicht, je stärker bei ihnen die funktionellen Verknüpfungen zwischen den Regionen zur Grammatik-Detektion und dem Arbeitsgedächtnis ausgeprägt waren“, heißt es in der Mitteilung des MPI. (Siehe unten).

Arbeitsgedächtnis heißt aber: Dort ist das Grundmuster abgespeichert, was als „Musik“ von uns begriffen wird. Genauso wie im Arbeitsgedächtnis unsere Sprachmuster „gespeichert“ sind, steckt hier auch alles, was wir von klein auf als gute Musik zu erkennen gelernt haben. Die einen sind dann wirklich mit Mozart, Bach und John Lennon aufgewachsen – und die anderen wahrscheinlich mit Hitparade.

Und ist das nun echte Alien-Musik, die Cheung komponiert hat? Würden Aliens diese Töne als Musik erkennen?

Da beginnt der Zweifel. Oder einfach die wissenschaftliche Ungewissheit, denn das Tonmodell, das Cheung verwendet hat, ist nun einmal eines, das menschlicher Musik zugrunde liegt. Es ist ein Teil unserer musikalischen Grammatik. Ob die sich irgendwo anders im Weltall genauso entwickelt, ist wahrscheinlich eher nur eine sehr vage und sehr mutige Vermutung.

Der Pressetext des Max-Planck-Institut für Kognitions- und Neurowissenschaften (MPI CBS) zum Selbernachlesen:

Wo sich der Sprachpionier Paul Broca und die Musik fremder Sphären treffen

Wie würde sich wohl die Musik von Außerirdischen anhören? Wäre sie hierarchisch strukturiert in Strophe und Refrain, so wie es unsere ist? Würden wir sie überhaupt mögen? Vincent Cheung, Doktorand am Max-Planck-Institut für Kognitions- und Neurowissenschaften (MPI CBS) in Leipzig glaubt, dass die Antwort in letzterem Fall „Ja“ wäre, wenn sie auf sogenannten lokalen und nicht-lokalen Abhängigkeiten basieren würde. Seine Ergebnisse im Fachmagazin Scientific Reports erklären, was das genau bedeuten würde. Das Pendant des Broca-Areals in der rechten Hirnhälfte verarbeitet statt der Grammatik von Sprache die von Musik.

Vincent Cheung hat gemeinsam mit Angela D. Friederici und anderen Wissenschaftlern des Max-Planck-Instituts für Kognitions- und Neurowissenschaften (MPI CBS) in Leipzig untersucht, wie unser Gehirn sogenannte nicht-lokale Abhängigkeiten in der Musik verarbeitet. Musik basiert generell, ähnlich wie Sprache, auf einem System, in dem sich Einzelelemente wie Töne zu immer komplexeren, hierarchisch strukturierten Sequenzen zusammensetzen. In diesen beiden Systemen, Musik und Sprache, bezeichnen Abhängigkeiten wiederum bestimmte Verknüpfungen, die zwei solcher Einzelelemente miteinander verbinden.

Nicht-lokale Abhängigkeiten stellen dabei eine logische Verbindung zwischen zwei Elementen her, die nicht direkt nebeneinander liegen, etwa zwischen zwei nicht direkt aufeinander folgenden Tönen. In der Popmusik steht beispielsweise der zweite Vers, der dem Refrain folgt, in nicht-lokaler Abhängigkeit zur ersten Strophe. Denn aus unserer Erfahrung heraus wissen wir, dass wir einer Sequenz lauschen, die wir bereits gehört haben. Laut Cheung nutzen Komponisten diese Mittel, um unsere Erwartungen zu wecken und dadurch eine starke emotionale Reaktion auf die Musik hervorzurufen. Jedoch stellte sich hier bisher die Frage: Wie verarbeitet das Gehirn solche Muster – und was hat das Ganze etwas mit dem Sprachpionier Paul Broca zu tun?

Paul Broca war ein berühmter französischer Arzt und Anatom, dessen Arbeit an Patienten mit Sprachstörungen im 19. Jahrhundert zur Entdeckung des Broca-Areals führte. Dieser kleine Bereich in der Großhirnrinde, direkt über der linken Schläfe gelegen, spielt eine grundlegende Rolle bei der Produktion und Verarbeitung von Sprache – und damit auch für die Abhängigkeiten innerhalb von Sprache. Er wird beispielsweise dann aktiv, wenn wir Verstöße gegen unser gelerntes Grammatiksystem bemerken. Das Interessante dabei: Obwohl das Broca-Areal zu einem der bestuntersuchtesten Regionen unseres Gehirns zählt, ist bisher nur sehr wenig über sein Pendant auf der rechten Hirnseite und dessen Funktion bekannt.

Einige Theorien gingen davon aus, dass sein Äquivalent ähnliche Aufgaben übernimmt; allerdings mit einem entscheidenden Unterschied: Statt Sprache verarbeitet es Musik. Bisher war es jedoch nicht gelungen, diese Hypothese zu beweisen, insbesondere weil es schwierig ist, die Verarbeitung lokaler und nicht-lokaler Abhängigkeiten innerhalb der hierarchischen Struktur von Musik voneinander zu trennen. Das sollte sich jedoch mit der aktuellen Studie von Vincent Cheung ändern: Er entwickelte eine eigene Form von Musik, die genau dies möglich machen sollte. Selbst bezeichnet er sie als „Alien-Musik“.

Diese Musik hat wenig mit der uns bisher vertrauten Musik zu tun. Vielmehr ist sie ein Stück, das rein für wissenschaftliche Zwecke komponiert wurde, und in der Wissenschaft als „zufällig generierte Kombination an Dreiton-Abfolgen, die in Palindrom-ähnlicher Weise kombiniert werden“ beschrieben wird. So sperrig diese Beschreibung für uns klingen mag, so angenehm empfinden wir gleichzeitig ihre Tonabfolge. Zudem ermöglicht sie es die störenden Einflüsse von lokalen Abhängigkeiten innerhalb der Musik auszuschalten. Entscheidend war dabei, dass sie sowohl Sequenzen nutzen, die einer vorgefertigten musikalischen Grammatik folgten, als auch solche ohne diese Vorgaben. Dadurch konnten die Wissenschaftler erkennen, wo das Gehirn diese musikalischen nicht-lokalen Abhängigkeiten verarbeitet.

Für ihre Untersuchungen luden die Wissenschaftler Musiker unterschiedlicher Erfahrungslevel ein, um den jeweiligen Kompositionen zu lauschen. Dabei sollten diese nicht nur herausfinden, ob es sich um grammatikalisch richtige oder falsche Abfolgen handelt. Sie sollten auch im entscheidenden Falle die zugrunde liegende grammatikalische Regel erkennen. Sobald sie die Regel einmal gelernt hatten, sollten sie diese wiederum im Magnetresonanztomographen wiedergeben. Die Wissenschaftler konnten so beobachten, welche Hirnareale dabei aktiv waren. Durch einen besonderen Kniff gelang es ihnen hier sogar, zwischen dem Verarbeiten der nicht-lokalen Abhängigkeiten und der generellen Aktivität des Arbeitsgedächtnisses zu unterscheiden: Sie variierten die Sequenzen systematisch in ihrer Komplexität, so dass sie in manchen Situationen mehr Informationen im Gedächtnis behalten mussten als in anderen.

Und tatsächlich, die Ergebnisse der Leipziger Neurowissenschaftler entsprachen den Erwartungen und hielten gleichzeitig eine Überraschung bereit: Der sogenannte Gyrus frontalis inferior, kurz IFG, in dem das Broca-Areal eingebettet ist, zeigte sich bei grammatikalisch falschen Sequenzen aktiver als bei richtigen, obwohl das Gehirn ansonsten hauptsächlich auf der rechten Seite aktiviert war. Als Grund dafür vermuten die Wissenschaftler, dass der IFG beim Verstoß gegen eine einmal gelernte grammatikalische Regel zwar stärker aktiviert wird – jedoch mehr auf seiner rechten als auf seiner linken Seite und dem dort befindlichen Broca-Areal.

Interessanterweise entdeckten die Wissenschaftler auch, dass die Probanden umso besser einordnen konnten, ob eine Sequenz grammatikalisch korrekt war oder nicht, je stärker bei ihnen die funktionellen Verknüpfungen zwischen den Regionen zur Grammatik-Detektion und dem Arbeitsgedächtnis ausgeprägt waren. Das könnte darauf hindeuten, dass sie diese Aufgabe bewerkstelligen, indem sie Informationen aus ihrem Arbeitsgedächtnis mit denen aus dem rechten Pendant des Broca-Areals verknüpfen.

„Diese Erkenntnisse zeigen uns, dass Neuronen, die in der Lage sind, nicht-lokale Abhängigkeiten zu entschlüsseln, nicht ‚supra-modal‘ sind. Vielmehr scheinen Subpopulationen für verschiedene Arten von Reizen miteinander verschaltet zu werden. Jetzt wissen wir, dass das offenbar auch für Musik der Fall ist“, erklärt Vincent Cheung, Erstautor der zugrunde liegenden Studie, die nun im Fachmagazin Scientific Reports erschienen ist.

So können Sie die Berichterstattung der Leipziger Zeitung unterstützen:

Ralf Julke über einen freien Förderbetrag senden.
oder

Keine Kommentare bisher

In der Sprache gibt es Varianten, wo man selbst feststellen kann, dass das erste, schnelle Hören oder Lesen keinen Sinn ergibt.
Man kann förmlich merken, wie der Satz in einem anderen Hirnbereich neu und komplexer bewertet wird.
2 Beispiele:
Er verband den verletzten Arm mit der Vorstellung großer Schmerzen.

Wohl wissend um die Empfindsamkeit seines zarten Gemütes wagte sie doch seine Grenzen tangierend dieses zu verletzen.

Und wenn da ein Schachtelsatz daherkommt, der vorn und hinten nicht zusammen passt, kann das richtige Schmerzen im Kopf verursachen.

Mit Musik wird das wohl ähnlich sein. Wenn ich gewohnt bin als nächstes einen harmonischen Ton zu erwarten und dann kommt eine Dissonanz, versucht das Gehirn dann vermutlich auch die Unstimmigkeit aufzuheben..
Geht mir bei Zwölftonmusik so, also gedanklich unauflösbar, aber man muss sein Gehirn ja auch nicht mit Absicht überfordern.. 😉

PS: Ende 2016 gab’s zur Sprachgrammatik-Verarbeitung eine sehr anschauliche Vorstellung des aktuellen Wissenstandes (schönes buntes Gehirnbild, zum Inhalt hab’ ich leider nichts gefunden):
https://www.uni-leipzig.de/kustodie/ausstellungen-und-veranstaltungen/ausstellungsarchiv/2016-psychologie-in-leipzig-geburt-einer-wissenschaft.html

Schreiben Sie einen Kommentar