Wissenschaftler haben ein System der künstlichen Intelligenz entwickelt, das in der Lage ist, die Gedanken von Menschen zu lesen, indem es die Gehirnaktivität misst und in Text umwandelt – eine Entwicklung, die Bedenken hinsichtlich des Schutzes der Privatsphäre und der Freiheit aufwirft.
Die Studie, die am 1. Mai in der Fachzeitschrift Nature Neuroscience veröffentlicht wurde, verwendet ein Transformer-Modell, ähnlich dem, das den Chatbot ChatGPT von OpenAI antreibt, um die Gedanken der Menschen zu entschlüsseln, berichtet die Epoch Times.
Ein Transformer-Modell ist ein neuronales Netzwerk, das den Kontext und damit die Bedeutung lernt. Die Testpersonen hörten sich zunächst stundenlang Podcasts an, und ihre Gehirnaktivität wurde aufgezeichnet. Anschließend trainierten die Forscher den Decoder anhand dieser Aufzeichnungen. Später hörten die Probanden eine neue Geschichte oder stellten sich vor, wie sie eine Geschichte erzählten, woraufhin der Decoder durch Analyse der Gehirnaktivität den entsprechenden Text generieren konnte.
Die Forscher trainierten die Decoder auf drei Themen. „Da unser Decoder die Sprache anhand semantischer Merkmale und nicht anhand motorischer und auditiver Merkmale darstellt, sollten die Vorhersagen des Decoders die Bedeutung der Stimuli erfassen“, heißt es in der Studie. „Die Ergebnisse zeigen, dass die dekodierten Wortfolgen nicht nur die Bedeutung der Stimuli, sondern oft sogar exakte Wörter und Phrasen wiedergeben.
Derartige Technologien werfen Bedenken hinsichtlich des Schutzes der Privatsphäre und des Verlusts der Freiheit auf.
In einem Interview mit MIT Technology Review vom 17. März warnte Nita Farahany, Rechtsethikerin an der Duke University in Durham, North Carolina, davor, dass die Sammlung von Gehirndaten von Regierungen und anderen Mächten für schändliche Zwecke genutzt werden könnte.
„Eine autoritäre Regierung, die Zugang [zu dieser Technologie] hat, könnte damit zum Beispiel versuchen, Menschen zu identifizieren, die sich politisch ungehorsam zeigen. Das ist eine ziemlich schnelle und ernsthafte Nutzung von Daten für böswillige Zwecke“, sagte Farahany.
Am Arbeitsplatz kann die Technologie zur „Entmenschlichung“ von Mitarbeitern eingesetzt werden, die gezwungen werden können, sich einer neurologischen Überwachung zu unterziehen.
„Das Problem entsteht, wenn die Technologie als obligatorisches Instrument eingesetzt wird und Arbeitgeber damit Daten sammeln, um Entscheidungen über Einstellungen, Entlassungen und Beförderungen zu treffen. Sie verwandeln es in eine Art Produktivitätsscore. Das untergräbt das Vertrauen … und kann den Arbeitsplatz entmenschlichen.“
Im Gegensatz zu anderen derzeit in der Entwicklung befindlichen Systemen zur Sprachdekodierung ist die von den Forschern in der Studie vom 1. Mai entwickelte Technologie nicht invasiv und erfordert keine chirurgischen Transplantationen bei den Probanden.
Alex Huth, Assistenzprofessor für Neurowissenschaften und Informatik an der UT Austin, der die Studie leitete, bezeichnete die Ergebnisse als einen „echten Sprung nach vorn“ bei nicht-invasiven Gehirnmessungen.
„Wir haben das Modell in die Lage versetzt, Sprache kontinuierlich über lange Zeiträume mit komplizierten Ideen zu dekodieren“, sagte Huth laut einer Pressemitteilung. Die entschlüsselten Ergebnisse sind keine Wort-für-Wort-Transkripte. Stattdessen erfassen sie die Essenz dessen, was eine Person denkt.
Gleichzeitig ist Jerry Tang, einer der Mitautoren der Studie, der Ansicht, dass die Technologie zwar noch in den Kinderschuhen steckt, die Regierungen jedoch Maßnahmen zum Schutz der Menschen und ihrer Privatsphäre ergreifen sollten. „Es ist auch notwendig, die Verwendung dieser Geräte zu regulieren.