Neuroprothese ermöglicht Patient mit Anarthrie mit Worten zu kommunizieren

Kategorie: Sprachneuroprothese, aerzteblatt.de

San Francisco – Eine „Sprachneuroprothese“, die über eine implantierte Elektrodenplatte die Signale des sensomotorischen Cortex abliest und mittels künstlicher Intelligenz in geschriebene Worte übersetzt, hat einem Patienten mit kompletter Lähmung und Anarthrie nach einem Hirnstamminfarkt ermöglicht, sich, wenn auch in bescheidenem Umfang, in Sätzen verständlich zu machen. Die Ergebnisse wurden im New England Journal of Medicine (2021; DOI: 10.1056/NEJMoa2027540) veröffentlicht.

Bei einer Anarthrie sind Patienten kognitiv in der Lage, Worte und Sätze zu beabsichtigen, die Umsetz­ung mit dem Sprechapparat ist jedoch nicht möglich. Die Ursache sind häufig Hirnstamminfarkte, die die motorischen Zentren des Sprechapparats zerstört haben.

So auch bei einem 36-jährigen US-Amerikaner, der vor 16 Jahren nach einer Dissektion der rechten Arteria vertebralis einen Schlaganfall erlitten hat. Der Mann litt an einer Tetraparese mit spastischer Lähmung von Armen und Beinen sowie einer Anarthrie. Er hatte keine kognitiven Einschränkungen, konnte seine Sprechabsichten jedoch lediglich in unverständliche Laute umsetzen. Seine Möglichkeit, mit anderen Menschen zu kommunizieren, war darauf beschränkt, mittels residualer Kopfbewegungen einen Cursor auf einen Monitor zu bewegen und aus einzeln ausgewählten Buchstaben kurze Sätze zu bilden. Er schaffte 18 Buchstaben oder 5 Worte pro Minute.

Ein Team um den Neurochirurgen Edward Chang von der Universität von Kalifornien in San Francisco implantierte dem Patienten während einer Operation eine 6,7 cm mal 3,5 cm große Platte über dem linken Cortex, die mit 128 Elektroden bestückt ist. Sie wurde so platziert, dass sie Signale vom Gyrus praecentralis, dem Gyrus postcentralis sowie den hinteren Abschnitten von Gyrus frontalis medius und Gyrus frontalis inferior auffangen und drahtlos an einen Konnektor weiterleiten konnte, der auf dem Schädel des Patienten platziert wurde.

Die Signale wurden dann von einem Computer in Echtzeit mit einer selbstlernfähigen Software in Buch­staben übersetzt, die dann auf einem Bildschirm erschienen. In den 81 Wochen seit der Operation wurde die Software in 50 Übungsstunden trainiert, einen Wortschatz von 50 Wörtern aus dem Rauschen der EEG-Signale zu filtern.

Der Patient sollte dabei einzelne Worte und Sätze zu sprechen versuchen. Später wurde er gebeten, auf Fragen kurz zu antworten. Der Computer benutzte dabei eine linguistische Software, die Wahrscheinlich­keiten für das jeweils nächste Wort ermittelt, vergleichbar mit den Apps, die beim Smartphone das Eintippen von Wörtern erleichtern sollen.

Der Patient konnte zwar jeweils nur die erwähnten unverständlichen Laute artikulieren, die Software lernte mit der Zeit jedoch anhand der EEG-Signale, die Sprechabsichten zu erkennen und auf dem Bildschirm anzuzeigen.

Am Ende konnte die Software median 15,2 Worte pro Minute dekodieren mit einer Fehlerrate von 25,6 % (95-%-Konfidenzintervall 17,1 % bis 37,1 %), sprich 3 von 4 Worte wurden richtig erkannt. Die Forscher gehen davon aus, dass eine Fehlerrate von weniger als 30 % eine sinnvolle Nutzung im Alltag erlauben würde. Sie hoffen, die Software weiter entwickeln zu können, um sich der normalen Sprechgeschwindig­keit zu nähern, die bei etwa 150 Wörtern pro Minute liegt. © rme/aerzteblatt.de