Unabhängige News und Infos

Meta entwickelte KI, die durch Dekodierung der Gehirnströme die Wörter erraten kann, die Sie hören
Gerd Altmann/Pixabay

Meta entwickelte KI, die durch Dekodierung der Gehirnströme die Wörter erraten kann, die Sie hören

Singularityhub: Die Dekodierung von Hirnströmen könnte Patienten, die ihre Sprachfähigkeit verloren haben, helfen, wieder zu kommunizieren, und könnte letztlich neue Wege für die Interaktion von Menschen mit Computern eröffnen.

Jetzt haben Meta-Forscher gezeigt, dass sie anhand von Aufzeichnungen aus nicht-invasiven Gehirnscans erkennen können, welche Worte jemand hört.

Unsere Fähigkeit, die menschliche Gehirnaktivität zu untersuchen, hat sich in den letzten Jahrzehnten erheblich verbessert, da Wissenschaftler eine Reihe von Brain-Computer-Interface-Technologien (BCI) entwickelt haben, die einen Einblick in unsere Gedanken und Absichten geben können.

Die beeindruckendsten Ergebnisse wurden mit invasiven Aufzeichnungsgeräten erzielt, bei denen Elektroden direkt in die graue Substanz des Gehirns implantiert werden, in Kombination mit künstlicher Intelligenz, die lernen kann, Gehirnsignale zu interpretieren. In den letzten Jahren war es dadurch möglich, vollständige Sätze aus der neuronalen Aktivität einer Person mit einer Genauigkeit von 97 % zu entschlüsseln und versuchte Handschriftbewegungen direkt in Text zu übersetzen, und zwar mit einer Geschwindigkeit, die mit dem Schreiben von SMS vergleichbar ist.

Aber die Implantation von Elektroden in das Gehirn eines Menschen hat offensichtliche Nachteile. Diese risikoreichen Verfahren sind nur für Patienten medizinisch vertretbar, bei denen die Aufzeichnung des Gehirns zur Lösung anderer medizinischer Probleme, wie z. B. Epilepsie, erforderlich ist. Außerdem nutzen sich die neuronalen Sonden mit der Zeit ab, so dass sie regelmäßig ersetzt werden müssen.

Deshalb beschlossen die Forscher der KI-Forschungsabteilung von Meta zu untersuchen, ob sie ähnliche Ziele erreichen können, ohne eine gefährliche Gehirnoperation durchführen zu müssen. In einer auf dem Preprint-Server arXiv veröffentlichten Arbeit berichtet das Team, dass es ein KI-System entwickelt hat, das auf der Grundlage der mit nicht-invasiven Gehirn-Computer-Schnittstellen aufgezeichneten Hirnaktivität vorhersagen kann, welche Wörter jemand hört.

„Es ist natürlich extrem invasiv, eine Elektrode in das Gehirn einer Person zu stecken“, sagte Jean Remi King, ein Forscher am Facebook Artificial Intelligence Research (FAIR) Lab, gegenüber TIME. „Wir wollten also versuchen, nicht-invasive Aufzeichnungen der Gehirnaktivität zu verwenden. Und das Ziel war es, ein KI-System zu entwickeln, das die Reaktionen des Gehirns auf gesprochene Geschichten entschlüsseln kann.“

Die Forscher stützten sich auf vier bereits vorhandene Datensätze zur Gehirnaktivität, die von 169 Personen gesammelt wurden, während sie Aufnahmen von sprechenden Personen zuhörten. Jeder Proband wurde entweder mit Magnetoenzephalographie (MEG) oder Elektroenzephalographie (EEG) aufgezeichnet, bei denen verschiedene Arten von Sensoren verwendet werden, um die elektrische Aktivität des Gehirns von außerhalb des Schädels zu erfassen.

Ihr Ansatz bestand darin, die Gehirn- und Audiodaten in drei Sekunden lange Schnipsel aufzuteilen und sie in ein neuronales Netzwerk einzuspeisen, das dann nach Mustern suchte, die die beiden miteinander verbinden könnten. Nachdem sie die künstliche Intelligenz mit vielen Stunden dieser Daten trainiert hatten, testeten sie sie mit zuvor nicht gesehenen Daten.

Am besten schnitt das System bei einem der MEG-Datensätze ab, wo es eine Top-10-Genauigkeit von 72,5 Prozent erreichte. Das bedeutet, dass die 10 Wörter mit der höchsten Wahrscheinlichkeit, mit dem Gehirnwellensegment verknüpft zu sein, in 72,5 Prozent der Fälle das richtige Wort enthielten.

Das hört sich vielleicht nicht so toll an, aber man darf nicht vergessen, dass das System aus einem potenziellen Wortschatz von 793 Wörtern ausgewählt wurde. Beim anderen MEG-Datensatz erreichte das System 67,2 Prozent, aber bei den EEG-Datensätzen schnitt es weniger gut ab und erreichte nur Top-10-Genauigkeiten von 31,4 und 19,1.

Natürlich ist dies noch weit von einem praktischen System entfernt, aber es stellt einen bedeutenden Fortschritt bei einem schwierigen Problem dar. Nicht-invasive BCIs haben ein viel schlechteres Signal-Rausch-Verhältnis, so dass die Entschlüsselung der neuronalen Aktivität auf diese Weise eine Herausforderung darstellt, die aber im Erfolgsfall zu einer weitaus breiter anwendbaren Technologie führen könnte.

Nicht jeder ist jedoch davon überzeugt, dass dieses Problem lösbar ist. Thomas Knopfel vom Imperial College London erklärte gegenüber New Scientist, dass der Versuch, Gedanken mit diesen nicht-invasiven Methoden zu erforschen, dem Versuch gleicht, einen HD-Film über altmodische analoge Telefonmodems zu übertragen“, und bezweifelte, dass solche Methoden jemals ein praktisches Genauigkeitsniveau erreichen werden.

Unternehmen wie Neuralink von Elon Musk setzen ebenfalls darauf, dass wir unsere Scheu vor invasiven Methoden irgendwann überwinden werden, wenn sich die Technologie verbessert, und dass dann auch ganz normale Menschen Hirnimplantate erhalten können.

Die Forschung des Meta-Teams befindet sich jedoch noch in einem sehr frühen Stadium, und es gibt noch viel Raum für Verbesserungen. Und die kommerziellen Möglichkeiten für jeden, der das nicht-invasive Scannen des Gehirns knacken kann, werden wahrscheinlich eine große Motivation sein, es zu versuchen.