Ein umstrittenes Regierungsprogramm zur Bekämpfung von Desinformation entwickelt eine geheime künstliche Intelligenz, die soziale Medien nach „besorgniserregenden“ Beiträgen durchforsten soll. Diese Technologie könnte sich als gefährliches Werkzeug der Massenüberwachung erweisen und wird bereits jetzt schon kritisiert.
Geheimes KI-Überwachungsprojekt
Das Ministerium für Wissenschaft, Innovation und Technologie (DSIT) hat für 2,3 Millionen Pfund den Auftrag an Faculty AI vergeben, eine Software zu entwickeln, die „ausländische Einmischung“ identifizieren, Deepfakes erkennen und „Narrative in sozialen Medien analysieren“ kann. Diese Plattform ist Teil der Counter Disinformation Unit (CDU), die 2019 gegründet wurde und nun unter dem neuen Namen National Security Online Information Team (NSOIT) agiert. Sie steht in Verbindung mit Geheimdiensten, was eine effektive Kontrolle durch die Öffentlichkeit erschwert.
Die neue Counter Disinformation Data Platform (CDDP) soll laut Regierungsangaben zunächst auf die Erkennung von Wahlbeeinflussung durch ausländische Staaten ausgerichtet sein. Allerdings zeigen stark geschwärzte Dokumente, die durch eine Anfrage zur Informationsfreiheit (FoI) von der Organisation Big Brother Watch veröffentlicht wurden, dass das System künftig auf beliebige Themen ausgeweitet werden kann.
„Während das CDDP derzeit auf nationale Sicherheit ausgerichtet ist, kann das Instrument auf jeden beliebigen Schwerpunktbereich umgestellt werden“, heißt es in Regierungsunterlagen.
Kritik an Intransparenz und Eingriff in die Meinungsfreiheit
Jake Hurfurt, Leiter der Forschungsabteilung von Big Brother Watch, warnt, dass die Regierung sich weiterhin weigere, große Mengen an Informationen über das Programm offenzulegen. Zudem umgehe sie parlamentarische Anfragen und den Geheimdienst- und Sicherheitsausschuss.
„Whitehall muss transparent darüber sein, wie die Regierung plant, künstliche Intelligenz zur Überwachung sozialer Medien einzusetzen. Millionen an Steuergeldern wurden in diese Projekte investiert, und die Öffentlichkeit hat ein Recht darauf, zu wissen, wie ihre Daten genutzt werden“, so Hurfurt.
Schon die Vorgängereinheit CDU hatte während der Pandemie Dokumente über Journalisten, Akademiker und Abgeordnete erstellt, die die offizielle Darstellung der Regierung hinterfragten. Es bestehe die Gefahr, dass mit NSOIT eine Art „Ministerium der Wahrheit“ weiterlebt, so Kritiker.
Lord Young von der Free Speech Union bezeichnet das Vorgehen als „politisch unklug“, da es mit der Entwicklung in den USA kontrastiert, wo vergleichbare Programme zurückgefahren werden. Besonders problematisch sei, dass viele der betroffenen Social-Media-Plattformen in US-Besitz sind.
„Für die Trump-Vance-Administration wird dies wie ein weiterer Versuch aussehen, Musks Twitter zu zerstören – eine Agenda, die von einer Pro-Zensur-Lobbygruppe mit Verbindungen zu Keir Starmers Stabschef vorangetrieben wird“, so Young.
Gezielte Kontrolle von Narrativen?
Seit 2021 hat die britische Regierung mehr als 5,3 Millionen Pfund für Desinformationsprojekte ausgegeben. Dazu gehören Programme zur Erkennung von „Corona-Fehlinformationen“, zur Analyse von „klimabezogenen Miss- und Desinformationen“ sowie zur Überwachung kritischer Beiträge über Covid-19-Impfstoffe.
Regierungsdokumente belegen, dass die Überwachungsteams besonders an „Anti-Vaxx-Rhetorik“ interessiert sind. Es wurde zudem überprüft, wer sich zu Themen wie Krebsbehandlungen, Maskenpflicht und dem 5G-Netzwerk äußert.
Besonders brisant ist, dass Regierungsbeamte besorgt über Elon Musk und Donald Trumps Unterstützung des Medikaments Hydroxychloroquin als Covid-19-Behandlung waren – ein Mittel, das laut einer Oxford-Studie im September tatsächlich zur Linderung von Symptomen beitragen kann.
Wie weit darf die Regierung gehen?
Ein Bericht über das CDDP zeigt, dass die Plattform Analysten helfen soll, „die besorgniserregendsten Beiträge“ zu identifizieren, um diese an politische Entscheidungsträger und operative Teams weiterzuleiten. JD Vance, US-Vizepräsident, kritisierte auf der Münchner Sicherheitskonferenz das Vorgehen der britischen Regierung und warnte vor einem Angriff auf die Grundfreiheiten.
„Grundrechte wie die Meinungsfreiheit sind in Großbritannien und Europa in Gefahr“, sagte Vance.
Auch die Wissenschaft wird zunehmend betroffen: Persönliche Akten über Professor Carl Heneghan, einen Epidemiologen der Oxford-Universität, sowie Dr. Alex de Figueiredo von der London School of Hygiene & Tropical Medicine zeigen, dass die Regierung kritische Wissenschaftler ins Visier nimmt. Molly Kingsley, Gründerin einer Initiative für den Schulbetrieb während der Pandemie, wurde ebenfalls überwacht.
Regierung verteidigt sich – Kritiker bleiben skeptisch
Ein Sprecher des Ministeriums für Wissenschaft, Innovation und Technologie verteidigte das Projekt und betonte, dass das KI-Tool lediglich dazu diene, „Themen und Trends in öffentlichen Inhalten zu analysieren“, nicht aber einzelne Personen zu überwachen.
„Wir entschuldigen uns nicht dafür, dass wir mit modernen Technologien Desinformation bekämpfen, die zu gewalttätigen Unruhen führen könnte, wie nach dem Angriff in Southport“, erklärte der Sprecher.
Auch Faculty AI, die Firma hinter dem KI-Tool, verteidigt das Projekt:
„Unsere Demokratie wird durch feindliche Staaten und Terroristen bedroht. Wir können entweder untätig bleiben oder Menschen schützen, indem wir potenzielle Gefahren analysieren.“
Die Firma betont, dass das System keine Personen identifiziere oder bestimme, was als Desinformation gilt.
Fazit: Zensur oder Schutz?
Während die Regierung die Entwicklung als notwendigen Schutz gegen Bedrohungen der nationalen Sicherheit darstellt, warnen Kritiker vor einem massiven Eingriff in die Meinungsfreiheit.
Die Vergangenheit zeigt, dass Überwachungsmaßnahmen oft über ihre ursprünglichen Ziele hinausgehen. Angesichts der fehlenden Transparenz und der Bereitschaft zur Kontrolle kritischer Stimmen bleibt die zentrale Frage: Wie lange bleibt die neue KI wirklich auf „nationale Sicherheit“ beschränkt – und wann wird sie zum Allzweck-Instrument gegen unliebsame Meinungen?