Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

KI wandelt Gehirnaktivitäten mit 97-prozentiger Genauigkeit in Sprache um

Singularityhub: Die Vorstellung einer Maschine, die Ihre Gedanken entschlüsseln kann, mag gruselig klingen, aber für Tausende von Menschen, die aufgrund von Krankheiten oder Behinderungen die Fähigkeit zu sprechen verloren haben, könnte dies eine große Veränderung bedeuten. Selbst für nichtbehinderte Menschen könnte es von großem Nutzen sein, eine E-Mail zu tippen, indem sie einfach nur denken, oder ihrem digitalen Assistenten telepathisch Befehle zu erteilen.

Diese Vision ist vielleicht einen Schritt näher gerückt, nachdem Forscher der University of California, San Francisco, gezeigt haben, dass sie Gehirnsignale in vollständige Sätze übersetzen können, und zwar mit einer Fehlerquote von nur drei Prozent, was unter der Schwelle für eine professionelle Sprachtranskription liegt.

Zwar können wir seit etwa einem Jahrzehnt Teile der Sprache aus Gehirnsignalen dekodieren, aber bisher waren die meisten Lösungen weit davon entfernt, durchgängig verständliche Sätze zu übersetzen. Letztes Jahr haben Forscher mit einem neuartigen Ansatz einige der bisher besten Ergebnisse erzielt, indem sie mit Hilfe von Gehirnsignalen einen simulierten Vokaltrakt animierten, aber nur 70 Prozent der Wörter waren verständlich.

Der Schlüssel zu der verbesserten Leistung, die die Autoren des neuen Artikels in Nature Neuroscience erzielten, war ihre Erkenntnis, dass es starke Parallelen zwischen der Übersetzung von Gehirnsignalen in Text und der maschinellen Übersetzung zwischen Sprachen mit Hilfe neuronaler Netze gibt, die heute für viele Sprachen sehr genau ist.

Während sich die meisten Bemühungen um die Dekodierung von Gehirnsignalen darauf konzentrierten, die neuronalen Aktivitäten zu identifizieren, die bestimmten Phonemen – den einzelnen Klangstücken, aus denen Wörter bestehen – entsprechen, beschlossen die Forscher, die maschinelle Übersetzung nachzuahmen, bei der der gesamte Satz auf einmal übersetzt wird. Dies hat sich als leistungsfähiger Ansatz erwiesen; da bestimmte Wörter mit größerer Wahrscheinlichkeit nahe beieinander liegen, kann sich das System auf den Kontext verlassen, um etwaige Lücken zu füllen.

Das Team verwendete denselben Encoder-Decoder-Ansatz, der auch bei der maschinellen Übersetzung zum Einsatz kommt. Dabei analysiert ein neuronales Netz das Eingangssignal – normalerweise Text, in diesem Fall aber Gehirnsignale -, um eine Darstellung der Daten zu erstellen, und ein zweites neuronales Netz übersetzt diese dann in die Zielsprache.

Sie trainierten ihr System anhand der Hirnaktivität von vier Frauen, denen Elektroden ins Gehirn implantiert wurden, um Anfälle zu überwachen, während sie eine Reihe von 50 Sätzen, darunter 250 einzelne Wörter, vorlasen. So konnte das erste Netzwerk herausfinden, welche neuronale Aktivität mit welchen Teilen der Sprache korreliert.

In Tests verließ es sich ausschließlich auf die neuronalen Signale und konnte bei zwei der vier Probanden Fehlerquoten von unter acht Prozent erreichen, was der Genauigkeit professioneller Transkriptionisten entspricht.

Natürlich gibt es auch Vorbehalte. Erstens war das System nur in der Lage, 30-50 spezifische Sätze zu entschlüsseln, wobei ein begrenzter Wortschatz von 250 Wörtern verwendet wurde. Außerdem müssen den Menschen Elektroden in das Gehirn implantiert werden, was derzeit nur aus einer begrenzten Anzahl sehr spezifischer medizinischer Gründe zulässig ist. Es gibt jedoch eine Reihe von Anzeichen dafür, dass diese Richtung sehr vielversprechend ist.

Eine Befürchtung war, dass das System aufgrund der Tatsache, dass es mit Sätzen getestet wurde, die in seinen Trainingsdaten enthalten waren, einfach lernen könnte, bestimmte Sätze mit bestimmten neuronalen Signaturen zu verbinden. Das würde darauf hindeuten, dass es nicht wirklich die Bestandteile der Sprache lernt, was die Generalisierung auf unbekannte Sätze erschweren würde.

Als die Forscher jedoch einen weiteren Satz von Aufnahmen zu den Trainingsdaten hinzufügten, die bei den Tests nicht berücksichtigt wurden, verringerte sich die Fehlerquote erheblich, was darauf hindeutet, dass das System Informationen über Teilsätze wie Wörter lernt.

Die Forscher fanden auch heraus, dass das Training des Systems mit den Daten des Probanden, der die höchste Genauigkeit erreichte, bevor es mit den Daten eines der schlechtesten Probanden trainiert wurde, die Fehlerquoten deutlich reduzierte. Dies deutet darauf hin, dass in praktischen Anwendungen ein Großteil des Trainings erledigt sein könnte, bevor das System dem Endbenutzer übergeben wird, und dieser es nur noch auf die Eigenheiten seiner Gehirnsignale abstimmen müsste.

Das Vokabular eines solchen Systems wird sich wahrscheinlich beträchtlich verbessern, wenn man auf diesem Ansatz aufbaut – aber selbst eine begrenzte Palette von 250 Wörtern könnte für einen Querschnittsgelähmten unglaublich nützlich sein und könnte wahrscheinlich auf einen spezifischen Satz von Befehlen für die telepathische Steuerung anderer Geräte zugeschnitten werden.

Jetzt sind wieder die Unternehmen am Zug, die sich um die Entwicklung der ersten praktischen neuronalen Schnittstellen bemühen.