Wie wir Wissen abrufen

Neues aus der Wissenschaft – Hirnforschung.

„Telefon“, „Buch“ oder „Gitarre“ – um in unserer Lebenswelt funktionieren zu können, haben wir bestimmte Konzepte von Objekten im Kopf, die mit ihren Merkmalen verknüpft sind. Doch wie ruft das Gehirn das Wissen ab, wenn wir die Dinge nicht direkt sehen, hören oder fühlen können, sondern allein ihre Bezeichnung auftaucht? Das zerebrale Spiegelbild eines Begriffs ist dabei davon geprägt, auf welchen Aspekt wir uns bei einem Objekt konzentrieren, geht aus Untersuchungen der Hirnaktivität bei Versuchen hervor. Auf der Grundlage der Ergebnisse haben die Forscher ein Modell entwickelt, wie wir unser Wissen verarbeiten.

Wenn Sie diese Zeilen lesen und die Informationen einordnen, leistet Ihr Gehirn Erstaunliches: Noch immer ist weitgehend rätselhaft, wie durch das Zusammenspiel der Neuronen und der Hirnareale komplexe Informationen verarbeitet werden. Grundlegend scheint allerdings klar: Um die Welt zu verstehen, bilden wir geistige Konzepte zu Objekten, Menschen oder Ereignissen. Konzepte wie „Telefon“ bestehen dabei aus sichtbaren Merkmalen, also Form und Farbe, sowie Geräuschen – etwa dem Klingeln. Zum Konzept Telefon gehören allerdings auch Handlungen – also Informationen darüber, wie und warum wir dieses Objekt benutzen.

Lesen wir das Wort „Telefon“, ruft unser Gehirn demnach das entsprechende geistige Konzept ab. Es scheint dabei die Merkmale dieses Objekts zu simulieren. Doch wie? Bislang war unklar, ob jeweils das gesamte Konzept im Gehirn aktiviert wird oder lediglich einzelne Merkmale wie Geräusche oder Handlungen abgerufen werden, die gerade wichtig sind. Konkret: Inwieweit denken wir bei einem Telefon immer an alle seine Merkmale oder nur an den Teil, der gerade benötigt wird? Dieser Frage und weiterführenden Aspekten sind Neurowissenschaftler des Max-Planck-Instituts für Kognitions- und Neurowissenschaften in Leipzig nachgegangen.

 

Hirnaktivität mit Konzepten im Kopf

Denkt man beim Wort „Telefon“ allein an das Klingeln oder aber allein an dessen Benutzung, werden lediglich diejenigen Hirnareale aktiv, die auch das eigentliche Hören (gelb) oder die eigentliche Handlung verarbeiten würden (blau). Rufen wir uns dagegen das Gesamtkonzept «Telefon» ab, treten neben diesen beiden sogenannten modalitätsspezifischen Arealen auch multimodale (grün) Bereiche in Aktion. (Bild: MPI CBS)

Sie untersuchten dazu 40 Probanden mittels funktioneller Magnetresonanztomographie (fMRT). Dieses bildgebende Verfahren kann verdeutlichen, welche Bereiche bei bestimmten Anforderungen im Gehirn aktiviert werden. Während der Aufnahmen wurden die Studienteilnehmer mit zahlreichen Begriffen konfrontiert. Darunter waren Wörter wie „Telefon“ oder „Gitarre“, die Objekte bezeichnen, die man hören und benutzen kann, aber auch Begriffe wie „Satellit“, die sich weder mit Geräuschen noch mit Handlungen verbinden lassen. In einem Durchgang sollten die Probanden entscheiden, ob ein Begriff für ein hörbares Objekt steht. In einem weiteren, sollten sie dann hingegen beantworten, ob man das jeweilige Objekt benutzen kann. Auf diese Weise waren die Teilnehmer geistig darauf vorgeprägt, den Fokus auf einen der beiden Aspekte zu legen, auch wenn ein Gegenstand beide aufweist.

Die Aufnahmen der Hirnaktivität durch das fMRT bestätigten dabei, dass das geistige Spiegelbild eines Objekts vom Kontext abhängig ist: Waren die Studienteilnehmer beim Aufrufen eines geistigen Konzepts wie „Telefon“ auf den Geräusch-Aspekt vorgeprägt, zeichnete sich ein zerebrales Spiegelbild dieses Begriffs ab, bei dem auditorische Areale in der Großhirnrinde aktiv waren. Stand hingegen der Gebrauch bei Begriffen wie Telefon im Vordergrund, traten sogenannte somatomotorische Areale des Gehirns in Aktion, die auch bei tatsächlich durchgeführten Handlung aktiv wären. Diese Art der geistigen Verarbeitung bezeichnen die Forscher als modalitätsspezifisch.

Wenn die Forscher bei weiteren Versuchsdurchläufen, beide Aspekte – Hörbarkeit und Nutzbarkeit – abfragten, zeigte sich ein weiteres Element der Verarbeitung von Begriffen: Für die Integration sorgt der linke Lobus parietalis inferior (IPL) – die Forscher bezeichnen diesen Hirnbereich deshalb als ein multimodales Areal. Sie konnten durch weitere Versuche auch zeigen, dass sich das Zusammenspiel zwischen den modalitätsspezifischen Arealen und dem multimodalen Bereich in der Einschätzung der Probanden zu einem Objekt widerspiegelt: Je intensiver die jeweiligen Regionen zusammenarbeiteten, desto mehr assoziierten die Teilnehmer einen objektbezogenen Begriff mit Handlungen oder Geräuschen.

 

Hierarchieebenen zeichnen sich ab

Die KOJ-Gehörtherapie trainiert als multimodales Training das Hörverstehen, Gedächtnis und die Aufmerksamkeitslenkung. Durch gezieltes LTP (Long Term Potential) werden nachhaltige Ergebnisse erzielt.

Abgerundet wurden die Experimente durch ein Einstreuen von Pseudowörtern. Diese erfundenen Wörter sollten die Probanden von realen Begriffen unterscheiden. Dabei zeigte sich: Eine Hirnregion sprang bei dieser Aufgabe an, die weder für Handlungen noch für Geräusche zuständig ist – der sogenannte anteriore Temporallappen (ATL). Dieses Areal scheint demnach Konzepte abstrakt oder amodal zu verarbeiten, völlig losgelöst von Sinneseindrücken, erklären die Wissenschaftler.

Die Erkenntnisse integrierten sie schließlich in ein Modell, das beschreiben soll, wie konzeptuelles Wissen im menschlichen Gehirn repräsentiert ist. Demnach werden Informationen von einer Hierarchieebene an die nächste weitergegeben und gleichzeitig bei jedem Schritt abstrakter. Auf der untersten Ebene liegen dabei die modalitätsspezifischen Areale, die einzelne Sinneseindrücke oder Handlungen verarbeiten. Diese übertragen ihre Informationen an die multimodalen Regionen wie den IPL, die mehrere verknüpfte Wahrnehmungen integrieren können – wie etwa Geräusche und Handlungen. Auf der höchsten Ebene arbeitet wiederum der amodale ATL, der von Sinneseindrücken losgelöste Merkmale repräsentiert.

„Letztlich zeichnet sich ab, dass sich unsere Konzepte von Dingen, Menschen und Ereignissen zum einen aus den damit assoziierten Sinneseindrücken und Handlungen zusammensetzen und zum anderen aus abstrakten symbolartigen Merkmalen. Was aktiviert wird, hängt dabei wiederum stark von der jeweiligen Situation oder Aufgabe ab“, resümiert Erstautor Philipp Kuhnke vom Max-Planck-Institut für Kognitions- und Neurowissenschaften die neuen Erkenntnisse.

Quelle: Max-Planck-Instituts für Kognitions- und Neurowissenschaften, Fachartikel: Cerebral Cortex, doi: 10.1093/cercor/bhab026; doi: 10.1093/cercor/bhaa010