Nicht nur am Bernstein Center for Computational Neuroscience der Charité Berlin wird emsig an technologischen Lösungen geforscht, wie man das, was in einem menschlichen Gehirn passiert, nicht nur auslesen, sondern auch entschlüsseln kann. Auch am Max-Planck-Instituts für Kognitions- und Neurowissenschaften hat man sich auf diesen Weg gemacht und versucht, mit Künstlicher Intelligenz neuronale Prozesse zu entziffern.

In Berlin forscht John-Dylon Haynes, der gerade mit Matthias Eckold zusammen das Buch „Fenster ins Gehirn“ veröffentlicht hat, in dem der aktuelle Stand der Neurowissenschaften dargestellt ist – mitsamt den Möglichkeiten und Grenzen, Hirnprozesse von außen auszulesen. Auch sie beschreiben das Entziffern von Hirnmustern vorerst als Grenze, wirklich zu „lesen“, was in unserem Gehirn geschieht.

Die Leipziger Forscher versuchen nun, Künstliche Intelligenz auf das „Lesen“ solcher Hirnmuster zu schulen. Das meldete das Max-Planck-Institut für Kognitions- und Neurowissenschaften am Freitag, 27. August.

Wie soll es funktionieren?

Obwohl Neurowissenschaftler immer größere Datensätze aus dem Gehirn aufnehmen, können sie viele der darin enthaltenen Informationen, den neuronalen Code, bislang nicht entschlüsseln. Ein internationales Team unter der Leitung des Max-Planck-Instituts für Kognitions- und Neurowissenschaften hat nun ein künstliches neuronales Netzwerk entwickelt, das in der Lage ist, automatisch neuronale Rohdaten zu verstehen, ohne sie manuell analysieren zu müssen.

„In den meisten Fällen wissen wir bislang nicht, welche Botschaften übertragen werden“, erklärt der leitende Forscher Markus Frey vom Max-Planck-Institut für Kognitions- und Neurowissenschaften (MPI CBS) in Leipzig und Kavli Institute for Systems Neuroscience in Trondheim. „Wir haben daher eine spezielle Art von Deep-Learning-Algorithmus, ein sogenanntes Convolutional Neural Network, entwickelt, das in der Lage ist, verschiedene Verhaltensweisen und Reize aus den Signalen vieler Gehirnregionen zu entschlüsseln.“

Hirn und Denkprozesse: noch immer ein Wunderwerk voller Rätsel

Mithilfe des Netzwerks DeepInsight konnten die Forscher beispielsweise genau vorhersagen, wie Ratten ein etwa zwei Quadratmeter großes Testfeld erkunden, also welche Position, Kopfrichtung und Laufgeschwindigkeit die Tiere zu welchem Zeitpunkt einnehmen. Auch ohne manuelle Bearbeitung waren die Vorhersagen dabei genauer als bei herkömmlichen Analysen. Möglich wird das, indem die Forscher die gesamten neuronalen Rohdaten nutzen. Die werden bisher üblicherweise manuell bereinigt, wodurch auch Informationen verloren gehen.

Die Komplexität besteht darin, dass wir eben nicht – wie Haynes es formuliert – in Sätzen denken, sondern bei allen Denkvorgängen – auch den unbewussten – immer unterschiedlichste Hirnareale aktiviert werden. Unser Denken ist nicht fein säuberlich separiert – hier die Bilder, da die Gefühle, dort die Handlungsanweisungen.

Stets sind ganze neuronale Netze beteiligt, sodass eine Reduktion des Bildes schon einen Komplettverlust der ganzen Information bedeuten kann. Geschickte Neurologen können zwar bestimmte Aktivierungsmuster zuordnen. Aber vom Erfassen ganzer Denkprozesse sind sie noch weit entfernt.

Zuordnung von Fingerbewegungen möglich

Aus Sicht der Forschung kommt man jetzt mithilfe des Netzwerks DeepInsight einen Schritt weiter beim Verstehen der Aktivitäten im Gehirn bei bestimmten Handlungen.

Das Netzwerk schafft es aber nicht nur, die neuronalen Signale einer Hirnregion bei Ratten zu entschlüsseln. Es ist auch in der Lage, Verhalten über unterschiedliche neuronale Methoden (etwa der Mikroskopie oder der Einsatz von Tetroden) und Hirnareale hinweg beim Menschen vorherzusagen. Den Forschern gelang es etwa die Handbewegungen von Studienteilnehmer/-innen vorherzusagen, indem sie die Bewegung der einzelnen Finger vorher aufgenommen hatten. Das Netzwerk konnte dann aus den neuronalen Rohdaten bestimmen, wie lange und in welche Richtung die Bewegung der Finger stattfand.

Fortschritt im neuronalen Code

„Bisherige Methoden übersehen in neuronalen Aufzeichnungen viele potenzielle Informationen, weil sie nur die Elemente entschlüsseln können, die wir bereits verstehen“, sagt Caswell Barry vom University College (UCL) und letzter Autor der zugrundeliegenden Studie, die jetzt im Fachmagazin elife erschienen ist. „Unser Netzwerk ist aber in der Lage, auf viel mehr des neuronalen Codes zuzugreifen und lehrt uns so, einige dieser unbekannten Elemente zu lesen.“

„Unser Netzwerk macht eine schnelle automatisierte Analyse von unverarbeiteten neuronalen Daten möglich. Dadurch sparen wir Zeit, die wir wiederum nur für die vielversprechendsten Hypothesen verwenden können“, ergänzt Christian Doeller, Direktor am MPI CBS. Zudem könne es in Zukunft ermöglichen, kognitive Prozesse auf höherer Ebene beim Menschen genauer vorherzusagen, etwa das Denken und Problemlösen.

Markus Frey, Sander Tanni, Catherine Perrodin, Alice O’Leary, Matthias Nau, Jack Kelly, Andrea Banino, Daniel Bendor, Julie Lefort, Christian F Doeller, Caswell Barry: Interpreting wide-band neural activity using convolutional neural networks, eLife 2021

Hinweis der Redaktion in eigener Sache

Seit der „Coronakrise“ haben wir unser Archiv für alle Leser geöffnet. Es gibt also seither auch für Nichtabonnenten alle Artikel der letzten Jahre auf L-IZ.de zu entdecken. Über die tagesaktuellen Berichte hinaus ganz ohne Paywall.

Unterstützen Sie lokalen/regionalen Journalismus und so unsere tägliche Arbeit vor Ort in Leipzig. Mit dem Abschluss eines Freikäufer-Abonnements (zur Abonnentenseite) sichern Sie den täglichen, frei verfügbaren Zugang zu wichtigen Informationen in Leipzig und unsere Arbeit für Sie.

Vielen Dank dafür.

Empfohlen auf LZ

So können Sie die Berichterstattung der Leipziger Zeitung unterstützen:

Ralf Julke über einen freien Förderbetrag senden.
oder

Keine Kommentare bisher

Schreiben Sie einen Kommentar