Verschiedene militärische Einheiten auf der ganzen Welt (insbesondere im Vereinigten Königreich während der Pandemie) haben sich an Maßnahmen beteiligt, die aufgrund ihres Ziels (Zensur) und der Beteiligten (Militär) letztlich zu umstrittenen, wenn nicht gar illegalen Bemühungen führen werden.
Die Bereitschaft, aus den Fehlern anderer zu lernen, scheint jedoch nicht sehr ausgeprägt zu sein. Die Versuchung, das Abwehrsystem in die politische Arena des „Krieges gegen die Desinformation“ einzubringen, scheint zu groß zu sein, um ihr widerstehen zu können.
In den USA steht Lockheed Martin kurz vor der Fertigstellung eines Prototyps, mit dem Medien analysiert werden können, um „Desinformation zu erkennen und zu bekämpfen“.
Und mit Medien meinen die Auftraggeber des Semantic Forensics(SemaFor)-Programms alles: Nachrichten, das Internet und sogar Unterhaltungsmedien. Text, Audio, Bilder und Videos, die Teil von „großangelegten automatisierten Desinformationsangriffen“ sind, sollen von dem Werkzeug erkannt und als falsch markiert werden.
Die Entwicklung ist nahezu abgeschlossen, der Prototyp wird von der Defense Advanced Research Projects Agency (DARPA) des US-Verteidigungsministeriums eingesetzt.
Der Gesamtwert des Programms, das vom Air Force Research Laboratory Information Directorate (im Namen der DARPA) an Lockheed Martin vergeben wurde, beläuft sich laut Military and Aerospace Electronics auf 37,2 Millionen Dollar.
In den Berichten wird darauf hingewiesen, dass frühere statistische Erkennungsmethoden zwar „erfolgreich“ gewesen seien, nun aber als „unzureichend“ für die Erkennung von Desinformation in den Medien angesehen würden. Daher wird die Untersuchung von „semantischer Inkonsistenz“ bevorzugt.
Es wird ein recht kurioses Beispiel angeführt, wie „unpassende Ohrringe“ ein Hinweis darauf sein können, dass ein Gesicht nicht echt ist, sondern durch ein GAN – ein generatives adversarisches Netzwerk – erzeugt wurde.
(GANs sind eine Methode des maschinellen Lernens).
Die Aufgabe von SemaFor ist es, Medien mit semantischen Algorithmen zu analysieren und zu entscheiden, ob ein Inhalt authentisch ist oder nicht.
Mehr noch: Der Nachweis, dass solche Aktivitäten von einem bestimmten Akteur stammen, war bisher nahezu unmöglich, aber es gibt eine „mentale Lösung“, mit der die Macher des Projekts offenbar zufrieden sind: Ableiten statt identifizieren. Also – wie bisher?
Dazu braucht es „Attributionsalgorithmen“, und es gibt noch mehr Vermutungen, die als verlässliche Technologie präsentiert werden – nämlich „Charakterisierungsalgorithmen“, die nicht nur entscheiden, ob Medien manipuliert oder generiert wurden, sondern auch, ob der Zweck bösartig ist.
Jetzt gilt es nur noch herauszufinden, wie die Algorithmen geschrieben werden.