Artikel von Heise ■
Wer eine Hörhilfe benötigt, tut sich oft schwer, wenn mehrere Menschen gleichzeitig sprechen. Ein neues System soll Betroffene besser unterstützen: mit der Auswertung von Hirnsignalen.
Stellen Sie sich, Sie wollen sich in einer lauten Bar von einem Freund die neuesten Geschichten erzählen lassen. Trotz der Ablenkung durch Hintergrundgeräusche sind Sie in der Lage, das Wesentliche herauszufiltern und Ihrem Freund zu folgen. Dieser so genannte „Cocktail-Party Effekt“ ist für die meisten Menschen ganz natürlich – nicht aber für Träger von Hörhilfen: Für sie kann es schwierig und sehr frustrierend sein, mit irrelevanten Geräuschen zurechtzukommen.
Ein potenziell transformatives neues System könnte das jetzt ändern, indem es herausfindet, wem eine Person zuhören möchte, und nur die jeweilige Stimme verstärkt. Um die Absichten des Zuhörers zu erkennen, werden im auditorischen Kortex Elektroden platziert, also in dem Teil des Gehirns, der für die Verarbeitung von Geräuschen zuständig ist. Wenn sich das Gehirn auf unterschiedliche Stimmen konzentriert, generiert es elektrische Signaturen jedes Sprechers, die sich auswerten lassen.
Passende Stimme verstärken
Ein Algorithmus für Deep Learning wurde darauf trainiert, auf diese Weise unterschiedliche Stimmen zu unterscheiden: Er sucht nach der besten Übereinstimmung zwischen der gewünschten Signatur und denen der unterschiedlichen sprechenden Personen in einem Raum. Anschließend wird die am besten passende Stimme verstärkt, was dem Zuhörer hilft, sich darauf zu konzentrieren.
Das jetzt in der Fachzeitschrift Science Advances beschriebene System wurde von einem von Forschern der Columbia University angeführten Team entwickelt und an drei Personen ohne Hörprobleme getestet, die am North Shore University Hospital in New York operiert wurden. Im Rahmen einer Therapie gegen Epilepsie setzten Ärzte den Patienten Elektroden in das Gehirn ein, sodass dessen Signale erfasst werden konnten. Den Teilnehmern wurde eine Aufzeichnung mit vier Menschen vorgespielt, die durchgängig sprachen. Zwischendurch hielten die Forscher das Band an und baten die Probanden, den letzten Satz vor der Pause zu wiederholen. Dies sollte sicherstellen, dass sie richtig gehört hatten, was mit einer durchschnittlichen Genauigkeit von 91 Prozent der Fall war.
Allerdings gibt es dabei einen offensichtlichen Nachteil: Beim aktuellen System ist eine Hirnoperation für das Einsetzen der Elektroden erforderlich. Nach Angaben der Forscher lassen sich Hirnsignale jedoch auch durch Sensoren in oder auf dem Ohr erfassen, sodass das System später in eine Hörhilfe integriert werden könnte (wobei es dann weniger genau würde). Zudem könnte es auch von Menschen ohne Hörprobleme verwendet werden, die sich besser auf eine bestimmte Stimme konzentrieren wollen.
Lange zuhören, treffsicher sein
Ein weiteres Problem ist die Zeitverzögerung. Diese beträgt nur ein paar Sekunden, könnte aber trotzdem darauf hinauslaufen, dass man den Anfang eines Satzes verpasst, sagt Nima Mesgarani vom Neural Acoustic Processing Lab der Columbia University, einer der Autoren des Fachaufsatzes. Hier besteht ein Zielkonflikt zwischen Genauigkeit und dem Tempo beim Fokussieren auf einen bestimmten Sprecher, erklärt er.
Mit anderen Worten: Je länger das System zuhören kann, desto treffsicherer wird es. An diesem Thema müsse noch geforscht werden, sagt Mesgarani. Trotzdem könnten derartige Geräte in nur fünf Jahren auf den Markt kommen.
Die aktuelle Studie sollte nur die grundsätzliche Machbarkeit belegen, zeigt aber spannendes Potenzial, sagt Behtash Babadi vom Department Electrical and Computer Engineering der University of Maryland, der nicht an der Arbeit beteiligt war. „Der Träger eines solchen Geräts könnte innerhalb weniger Sekunden alles ausblenden außer die Person, die er hören möchte“, so Babadiu. „Diese Arbeit ist die erste, die eine echte Lösung für das Problem bringt, und ein Sprung nach vorn bei dem Versuch, sie zur Realität zu machen.“