Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

person wearing silver framed eyeglasses
pexels.com

Bedeutende Auswirkungen: Wie die US-Regierung KI-Studien finanziert, die Aufschluss darüber geben, ob man gegen „soziale Normen“ verstoßen hat

Eine im Mai dieses Jahres in Nature veröffentlichte und vom Pentagon finanzierte Arbeit der israelischen Forscher Yair Neuman und Yochai Cohen von der Ben-Gurion-Universität sucht nach Möglichkeiten, KI einzusetzen, um das Gefühl zu erkennen, gegen „soziale Normen“ verstoßen zu haben.

Und zwar durch die korrekte Erkennung emotionaler Signale, die diese Gefühle verraten.

Die Tage der massenhaften und invasiven Überwachung der bloßen Worte, die Menschen über ihre Geräte benutzen, scheinen langsam zu Ende zu gehen; die „neue Grenze“ ist nun die „KI“ und die Frage, wie man die manchmal nicht sofort offensichtliche Bedeutung und Nuance dieser Worte herausfinden kann. Dies wird Stimmungsanalyse genannt.

Sie zielt im Wesentlichen darauf ab, die Komplexität (und kulturelle Vielfalt) der menschlichen Wahrnehmung dessen, was in sozialen Interaktionen richtig und falsch ist, zu vereinfachen, indem sie die emotionalen Hinweise extrahiert, die in der Art und Weise enthalten sind, wie Menschen Schuld oder Scham über etwas ausdrücken, das die Gesellschaft missbilligt.

Auch wenn die Verlockung von Effizienz und erhöhter Sicherheit für den Einsatz von KI in diesen Bereichen spricht, gibt es erhebliche ethische, rechtliche und gesellschaftliche Implikationen, die nicht ignoriert werden können.

Befürworter der KI-gestützten Überwachung argumentieren, dass die Technologie eine nie dagewesene Effizienz bietet. I+n einer Welt, die von Daten überflutet wird, ist die Menge an textbasierter Kommunikation – seien es E-Mails, Beiträge in sozialen Medien oder Diskussionen in Foren – überwältigend. Die manuelle Durchforstung dieser Informationsflut nach Hinweisen auf illegale Aktivitäten ist nicht nur entmutigend, sondern angesichts begrenzter personeller Ressourcen praktisch unmöglich. KI mit ihrer Fähigkeit, riesige Datenmengen schnell zu verarbeiten und zu analysieren, bietet eine Lösung für dieses Problem. Sie kann die Identifizierung von Sicherheitsbedrohungen beschleunigen und es den Strafverfolgungsbehörden so ermöglichen, proaktiv einzugreifen.

Dieses Argument steht im Einklang mit der Vorstellung, dass KI ein gewisses Maß an Objektivität in den Prozess bringen kann. KI-Algorithmen könnten, wenn sie gut konzipiert sind, Texte auf der Grundlage vordefinierter Kriterien bewerten und so angeblich menschliche Voreingenommenheit ausschließen, die sich in solche Bewertungen einschleichen könnte. Ferner können maschinelle Lernverfahren Muster und subtile Hinweise erkennen, die selbst geschulten Experten entgehen könnten. Unter dem Gesichtspunkt der Ressourcenallokation würde die Automatisierung der ersten Screening-Prozesse es den menschlichen Mitarbeitern ermöglichen, sich auf Aufgaben zu konzentrieren, die emotionale Intelligenz, kritisches Denken und differenzierte Entscheidungen erfordern.

Es ist jedoch wichtig, auch die andere Seite der Medaille zu betrachten. Die unmittelbare Sorge ist ethischer Natur. Der Einsatz von KI zum Scannen persönlicher oder öffentlicher textbasierter Kommunikation kann invasiv sein und das Recht des Einzelnen auf Privatsphäre verletzen. Die Vorstellung, dass die eigene Kommunikation von einer Maschine analysiert werden könnte – ohne ausdrückliche Zustimmung oder sogar ohne Wissen des Betroffenen – wirft erhebliche Fragen hinsichtlich der bürgerlichen Freiheiten auf.

Die Gefahr von Fehlalarmen darf nicht übersehen werden. KI ist ein Werkzeug, keine Garantie für ein perfektes Urteilsvermögen. Es wird unweigerlich Fälle geben, in denen die Technologie Personen fälschlicherweise als Straftäter einstuft, was ungerechtfertigte Ermittlungen, öffentliche Demütigung oder sogar rechtliche Konsequenzen nach sich zieht. Solche Falschmeldungen sind nicht nur unangenehm, sie können auch Leben zerstören.

Es besteht auch die Sorge, dass der Algorithmus voreingenommen sein könnte. Wird ein KI-System auf der Grundlage voreingenommener oder nicht repräsentativer Daten trainiert, kann es bestehende gesellschaftliche Vorurteile aufrechterhalten oder sogar verstärken. Wenn unter anderem ein Algorithmus für maschinelles Lernen mit einem Datensatz trainiert wird, der bestimmte soziale oder politische Gruppen unverhältnismäßig häufig als kriminell darstellt, ist es wahrscheinlich, dass das KI-System diese Voreingenommenheit in seinen Bewertungen reproduziert.

Transparenz und Rechenschaftspflicht stellen eine weitere Herausforderung dar. Viele Algorithmen des maschinellen Lernens sind im Grunde „Black Boxes“, deren Funktionsweise selbst für Experten unverständlich ist. Diese Undurchsichtigkeit könnte die Überprüfung oder Anfechtung von KI-Entscheidungen extrem erschweren und damit möglicherweise den Rechtsgrundsatz des fairen Verfahrens untergraben.

Ferner könnte der Einsatz einer solchen Technologie die Meinungsfreiheit einschränken. Das Wissen, das eine KI ihre Textkommunikation auswertet, könnte Menschen dazu verleiten, sich selbst zu zensieren, auch wenn sie kein Fehlverhalten begangen haben. Dies könnte demokratischen Werten schaden, die auf einem offenen Diskurs und dem freien Austausch von Ideen beruhen.

Dem Ganzen liegt die Überlegung zugrunde, dass ungeachtet kultureller Unterschiede in der Frage, was als Norm gilt und was nicht, die emotionale Reaktion der Menschen auf Verstöße gegen diese Norm überall auf der Welt sehr ähnlich sein wird.

Mit anderen Worten: Ob man es mit vielen Worten ausdrückt oder nicht, zum Beispiel in einer Textnachricht, das US-Verteidigungsministerium (Pentagon) ist daran interessiert zu erfahren, ob man etwas, das man getan hat, für falsch hält.

Die Studie soll mehr Klarheit darüber bringen, wie die US-Regierung dieses komplizierte Ziel erreichen kann. Die Frage, warum die Regierung das will, ist an dieser Stelle wahrscheinlich überflüssig.

Zumal das Geld des Pentagons von der Defense Advanced Research Projects Agency (DARPA) kommt, die seit Jahrzehnten mehr oder weniger erfolgreiche und oft umstrittene Ideen und Projekte vorantreibt, von denen viele sagen, sie dienten im Großen und Ganzen dazu, die Kriegsmaschinerie zu füttern. Es gibt Roboter, Drohnen, Gehirnimplantate und so weiter.

Aber konzentrieren wir uns auf die „Kriegsmaschinerie“: Das Interesse des Pentagons, Geld für derartige Forschungen auszugeben, würde Sinn ergeben, wenn die Absicht darin bestünde, in diesem Zusammenhang Menschen in fremden Ländern zu „analysieren“, gegen die die USA möglicherweise einen Krieg führen wollen – was ihnen einen Vorteil verschaffen könnte, wenn die Modelle/Methoden tatsächlich nützliche Datenanalysen liefern.

Es gibt aber auch das Problem, dass es viele umstrittene Technologien, Strategien und Methoden gegeben hat, die die US-Regierung ihren Bürgern als „rein“ gegen Ausländer gerichtet erklärt hat – nur um später festzustellen, dass sie auch gegen sie selbst gerichtet waren.

Wie dem auch sei, Neuman und Cohen begründen ihr Papier damit, dass „mehrere Projekte“ im Bereich der Computerwissenschaften derzeit Schwierigkeiten hätten, sowohl soziale Normen als auch deren Verletzung zu definieren. Das Ziel der Forscher ist es, einen neuen Weg zu finden, um diese zu identifizieren.

Das „Problem“, vor dem diese „verschiedenen Projekte“ stehen (eines davon ist das DARPA-Programm für computergestütztes kulturelles Verständnis, wie die beiden herausgefunden haben), ergibt sich aus der Vielfalt der sozialen Normen und Standards – einige sind universell, aber viele variieren je nach Kultur. Und dann gibt es noch die Maßnahmen, mit denen gegen Verstöße gegen soziale Normen vorgegangen wird.

An psychologischer und sozialwissenschaftlicher Forschung zu all diesen Themen mangelt es nicht, so die Autoren, aber die Frage sei nun, wie man die Identifizierung sowohl der Normen als auch der Verstöße automatisieren könne. Die vorgeschlagene Lösung besteht darin, dass die Datenwissenschaft das bereits vorhandene Wissen aus der sozialwissenschaftlichen und psychologischen Forschung nutzt, um theoretisch fundierte Modelle zu erstellen, deren Aufgabe es wäre, Fälle von Normverletzungen zu klassifizieren.

Nun zu den Modellen selbst: Laut Neuman und Cohen basieren sie auf linguistischen Modellen – GPT3, NLI-basierter Zero Shot Text Classification und automatischer Regelfindung.

Sie erklärten auch, wie jedes der Sprachmodelle in ihrer Studie verwendet wird und welche Rolle es dabei spielt. Insgesamt konzentriert sich die Studie auf soziale Emotionen, die Verstöße signalisieren, und nicht auf die große Vielfalt dessen, was als tatsächliche Verstöße wahrgenommen wird.

Um ihre Arbeit zu testen, hatten die Forscher Zugang zu zwei riesigen Datensätzen von „kurzen Texten“, wie sie sagen. Und sie scheinen mit den Ergebnissen zufrieden zu sein, denn sie stellen fest, dass die von ihnen entwickelten Modelle nun „starke empirische Unterstützung“ finden.

Die Idee, dass die Regierung künstliche Intelligenz einsetzt, um geschriebene Texte auf Fehlverhalten zu untersuchen, könnte eine noch folgenreichere Wendung nehmen, wenn sie auf den Bereich der sozialen Medien ausgeweitet wird. Angesichts der schieren Menge an Daten, die auf Plattformen wie Facebook, X, Instagram oder sogar Blogs generiert werden, bieten die Skalierbarkeit und Geschwindigkeit von KI ein verlockendes Angebot für die Überwachung dieser virtuellen Räume. Diese potenzielle Anwendung verstärkt jedoch bestehende Bedenken und wirft neue auf, insbesondere angesichts der globalen Reichweite und des zutiefst persönlichen Charakters der sozialen Medien. Ganz zu schweigen davon, dass diese Art von Technologie Ihre privaten E-Mails und Dokumente scannen kann.

Erstens dienen Social-Media-Plattformen als Schauplatz für ein breites Spektrum menschlicher Interaktionen, von informellen Gesprächen und dem Austausch von Fotos bis zu politischen Debatten und Aktivismus. Die Anwendung von KI-Überwachungstechnologien auf diesen Plattformen würde das Netz staatlicher Überwachung drastisch ausweiten und damit unmittelbare und erhebliche Probleme für den Schutz der Privatsphäre aufwerfen. Für viele Menschen sind soziale Medien ein Raum, in dem sie ihre Gedanken, Gefühle und Meinungen frei äußern können. Das Wissen, das ein KI-System jeden Beitrag, jeden Kommentar und jede „Gefällt mir“-Angabe auf potenzielles Fehlverhalten überwacht, könnte eine abschreckende Wirkung auf diese Meinungsäußerung haben und sich sowohl auf die einzelnen Nutzer als auch auf den gesellschaftlichen Wert dieser Plattformen als Foren der freien Meinungsäußerung auswirken.

Diese Kontrolle könnte zu einer weitverbreiteten Selbstzensur führen, da die Nutzer immer vorsichtiger werden, welche Inhalte sie veröffentlichen und welche Ideen sie diskutieren. Demokratien leben von offenen Debatten und dem freien Austausch von Ideen; eine Öffentlichkeit, die aus Angst oder Vorsicht zur Selbstzensur neigt, negiert diese Grundsätze. Zudem könnte das Bewusstsein, dass die eigenen Inhalte einer staatlichen Analyse unterzogen werden, zu einem Vertrauensverlust nicht nur gegenüber den Plattformen selbst, sondern auch gegenüber den für die Überwachung zuständigen staatlichen Institutionen führen.

Die rechtliche Komplexität erhöht sich auch im internationalen Kontext. Verschiedene Länder haben ihre eigenen Gesetze in Bezug auf Meinungsfreiheit, Privatsphäre und Datenschutz. Würde die US-Regierung Inhalte auf Social-Media-Plattformen scannen, die auch von Bürgern anderer Länder genutzt werden, könnte dies zu Konflikten mit der Rechtsprechung, diplomatischen Spannungen und Fragen der Extraterritorialität führen.

Hinzu kommt das Problem der False Positives. Angesichts der Vielfalt der Inhalte in den sozialen Medien – von Witzen und Satire bis zu differenzierten politischen Argumenten – ist das Potenzial für KI, Informationen falsch zu interpretieren, groß. Ein schlecht kalibrierter Algorithmus könnte harmlose Beiträge als bedrohlich oder problematisch einstufen, was zu ungerechtfertigten Ermittlungen oder rechtlichen Schritten gegen Unschuldige führen kann. Die emotionalen und rufschädigenden Folgen solcher Fehler könnten verheerend sein.

Schließlich würde der Umfang eines solchen Vorgangs erhebliche Risiken für die Datensicherheit mit sich bringen. Die Anhäufung so vieler Daten an einem Ort – insbesondere personenbezogener oder sensibler Daten – ist ein attraktives Ziel für Cyberkriminelle. Ein Verstoß könnte katastrophale Folgen haben, nicht nur für die Privatsphäre des Einzelnen, sondern auch für die nationale Sicherheit.

Mit der Weiterentwicklung von KI-Technologien wird die Versuchung, diese zur Überwachung sozialer Medien einzusetzen, wahrscheinlich zunehmen. Die ethischen, sozialen und rechtlichen Implikationen eines solchen Schrittes sind jedoch äußerst komplex. Wenn nicht mit größtmöglicher Sorgfalt und Transparenz vorgegangen wird, könnten die Folgen weitreichend sein und nicht nur die Freiheiten des Einzelnen, sondern auch die Struktur der demokratischen Gesellschaft selbst beeinträchtigen. Aus diesem Grund sollte jeder Schritt in Richtung einer Nutzung von KI Gegenstand einer gründlichen öffentlichen Debatte, einer strengen Überwachung und einer ständigen Überprüfung sein, um den Schutz der Freiheiten zu gewährleisten, die diese Technologien ironischerweise untergraben können.