Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

browsing youtube
pexels.com

Luftwaffenforschung: Soziale Medien zur Steuerung von Menschen wie Drohnen nutzen

Das Modell “Containment Control” untersucht, wie Gruppen von Beeinflussern Menschen manipulieren können.

Facebook ist nicht die einzige Organisation, die erforscht, wie Einstellungen durch soziale Medien beeinflusst werden. Das Verteidigungsministerium hat in den vergangenen Jahren Millionen von Dollar in die Erforschung von sozialen Medien und sozialen Netzwerken investiert und untersucht, wie sich Informationen über diese verbreiten. Während Forscher von Facebook und der Cornell University manipulierten, was Einzelpersonen in ihren Social-Media-Feeds sahen, konzentrierte sich die vom Militär finanzierte Forschung – darunter Projekte, die vom Social Media in Strategic Communications (SMISC) Programm der Defense Advanced Research Projects Agency (DARPA) finanziert wurden – darauf, wie sich Nachrichten von einflussreichen Mitgliedern sozialer Netzwerke verbreiten.

Eine vom Air Force Research Laboratory (AFRL) finanzierte Studie geht noch einen Schritt weiter. “Ein weniger erforschtes Problem ist die Frage, wie man ein Netzwerk, das man einmal identifiziert hat, in Richtung eines bestimmten Ziels manipulieren kann”, sagt Warren Dixon, Doktor der Elektro- und Computertechnik und Leiter der Forschungsgruppe für nicht lineare Regelung und Robotik an der University of Florida. Dixon war der leitende Forscher eines vom Air Force Research Laboratory finanzierten Projekts, dessen Ergebnisse im Februar in einer Veröffentlichung mit dem Titel “Containment Control for a Social Network with State-Dependent Connectivity” vorgestellt wurden.

Die Forschungsarbeit zeigt, dass die mathematischen Prinzipien, die zur Steuerung autonomer Robotergruppen verwendet werden, auch auf soziale Netzwerke zur Steuerung menschlichen Verhaltens angewendet werden können. Richtig kalibriert, könnten die von Dixon und seinen Forscherkollegen entwickelten mathematischen Modelle dazu verwendet werden, die Meinung in sozialen Netzwerken in Richtung eines gewünschten Verhaltens zu lenken – vielleicht in Verbindung mit einigen der Cyberwaffen für soziale Medien, die von der NSA und ihrem britischen Pendant, dem GCHQ, entwickelt wurden.

Sanfter Infokrieg

Die militärische Forschung zu sozialen Netzwerken wurde in den vergangenen zehn Jahren im Rahmen der Bemühungen des Verteidigungsministeriums fortgesetzt, “Open Source Intelligence” zu nutzen und soziale Netzwerke zu analysieren (unter Verwendung von Aufzeichnungen von Mobiltelefonen, anderen elektronischen Verbindungen und Verbindungen in der physischen Welt), um Hersteller von improvisierten Sprengkörpern und Anführer aufständischer Zellen ins Visier zu nehmen. Im Laufe der Zeit hat sich die Forschung mehr in Richtung “Herzen und Köpfe” als in Richtung “Suchen und Zerstören” verlagert.

Das SMISC-Programm der DARPA wurde 2011 ins Leben gerufen, um zu untersuchen, wie soziale Netzwerke für Propagandazwecke genutzt werden können und was allgemein unter dem Euphemismus Military Information Support Operations (MISO) zusammengefasst wird, früher bekannt als psychologische Operationen. Anfang Juli veröffentlichte die DARPA eine Liste von Forschungsprojekten, die im Rahmen des SMISC-Programms finanziert wurden. Darunter waren Studien, die unter anderem die Twitter-Abonnenten von Lady Gaga und Justin Bieber analysierten, Untersuchungen zur Verbreitung von Internet-Memes, eine Studie des Georgia Tech Research Institute zur automatischen Erkennung irreführender Inhalte in sozialen Medien anhand sprachlicher Hinweise und die Studie “Modeling User Attitude toward Controversial Topics in Online Social Media” von IBM Research, die Twitter-Feeds anzapfte, um Reaktionen auf Themen wie “Fracking” für Erdgas zu verfolgen.

Die von der AFRL gesponserte Forschung von Dixon, Zhen Kan und Justin Klotz von der NCR-Gruppe der University of Florida und Eduardo L. Pasiliao von der AFRL Munitionsdirektion auf dem Luftwaffenstützpunkt Eglin wurde durch ein Treffen ausgelöst, an dem Dixon teilnahm, als er ein “Think Piece” für die Defense Science Study Group vorbereitete. “Ich hörte einen Vortrag eines Informatikers über die Erforschung menschlichen Verhaltens auf der Grundlage sozialer Daten. Die verwendete Sprache um die Interaktionen [zwischen Menschen und Produkten] mathematisch zu beschreiben, war dieselbe Sprache, die wir verwenden, um Gruppen von autonomen Fahrzeugen zu steuern”.

Das soziale Drohnendiagramm

Diese Sprache ist die Graphentheorie – die mathematische Sprache, die der Graphendatenbank von Facebook und den “Entity”-Datenbanken zugrunde liegt, die Google und Bing verwenden, um Suchkontexte zu verstehen. Sie ist auch ein grundlegender Bestandteil von Steuerungssystemen geworden, die Schwärme von autonomen Robotern kontrollieren. Diese Verbindung hat Dixon dazu inspiriert, sie weiter zu erforschen. “Kann man dieselbe Mathematik, mit der man autonome Menschen steuert, auch auf Gruppen von Menschen anwenden?”

Dixons Gruppe hatte andere Arbeiten für das AFRL im Bereich der Robotik durchgeführt, und als er die Idee einem Kontakt dort erzählte, wurde er mit Forschern aus derselben Gruppe am AFRL in Kontakt gebracht, die sich für Fragen der sozialen Medien interessierten. Mit der Finanzierung in der Hand arbeitete das Forschungsteam daran, zu modellieren, wie die Zusammenarbeit zwischen “wichtigen Einflussnehmern” in sozialen Netzwerken das Verhalten von Gruppen innerhalb des Netzwerks beeinflussen könnte, indem das Prinzip der “Eindämmungskontrolle” angewandt wird.

Dixon erklärte das Konzept folgendermaßen: “Es gibt eine Gruppe von Führungspersönlichkeiten, von denen jede ihre eigenen Ziele verfolgt und ihre eigenen Themenschwerpunkte hat. Das Ziel besteht darin, diese Personen dazu zu bringen, ihre Meinung zu ändern oder eine Gruppe von Mitläufern zu zwingen – Menschen, die sich in der sozialen Gruppe dieser Personen befinden, aber das übergeordnete Ziel nicht kennen”.

Mithilfe der Grafentheorie haben Dixon und seine Forscherkollegen ein Modell entwickelt, um herauszufinden, wie viel Einfluss ein Social-Media-“Führer” benötigt, um Macht auszuüben und Verhalten zu ändern. Wie viele DARPA-Studien wurde auch Dixons Forschung nicht in der realen Welt durchgeführt, um die Ergebnisse zu bestätigen – es handelte sich ausschließlich um Simulationen. Und das ist ein Stolperstein für die Fortsetzung dieser Arbeit, ein Stolperstein, den die Forscher des Cornell Social Media Lab mit Facebook überwunden haben, was zu einem Aufschrei der Empörung geführt hat.

“Das Problem ist, wie man ein geschlossenes Experiment durchführt. Damit hatte die DARPA zu kämpfen”, sagt Dixon.

Aus diesem Grund hat das SMISC-Programm auf experimentelle Umgebungen gedrängt, die “geschlossene” soziale Netzwerke nutzen. Auf der DARPA-Projektseite schreibt das SMISC-Projektteam: “SMISC-Forscher werden eine geschlossene und kontrollierte Umgebung schaffen, in der große Datenmengen gesammelt und Experimente durchgeführt werden, um die Entwicklung und das Testen zu unterstützen. Ein Beispiel für eine solche Umgebung könnte ein geschlossenes Social-Media-Netzwerk mit 2.000 bis 5.000 Personen sein, die sich bereit erklärt haben, Social-Media-basierte Aktivitäten in diesem Netzwerk durchzuführen und an den erforderlichen Datenerhebungen und Experimenten teilzunehmen. Dieses Netzwerk kann innerhalb einer Organisation oder organisationsübergreifend gebildet werden. Ein weiteres Beispiel könnte ein Rollenspiel sein, bei dem die Nutzung sozialer Medien ein zentraler Bestandteil des Spiels ist und die Spieler sich ebenfalls bereit erklärt haben, an der Datenerhebung und den Experimenten teilzunehmen”.

Nach ersten Berichten, die die Facebook-Forschung mit dem Militär in Verbindung brachten, veröffentlichte die DARPA ein Informationsblatt, das nicht nur eine Verbindung dementierte, sondern auch die Facebook-Forschung infrage stellte.

“DARPA unterstützt keine Forschungsprogramme, die darauf abzielen, unwissende Menschen zu täuschen, um zu sehen, wie sie reagieren (wie es bei der umstrittenen Facebook-Studie der Fall war). DARPA finanziert Forschung darüber, wie sich Gruppen bilden und gegenseitig beeinflussen, und die damit verbundene Dynamik – ähnlich der sozialwissenschaftlichen Forschung, die seit Jahrzehnten mit anderen Arten der Kommunikation durchgeführt wird”, schrieb ein Vertreter des Programms. “Die von DARPA finanzierten Studien, bei denen potenziell irreführende Informationen verschickt wurden, um zu sehen, wie die Menschen reagieren, wurden mit geschlossenen Gruppen von Personen durchgeführt, die sich freiwillig gemeldet oder der Teilnahme an Social-Media-Studien zugestimmt hatten. Keine der Social-Media-Daten, die von DARPA-finanzierten akademischen Forschern gesammelt oder analysiert werden, werden von DARPA oder der Regierung gesammelt oder gespeichert. Ferner müssen DARPA-finanzierte Forscher bestätigen, dass keine persönlich identifizierbaren Informationen (PII) gesammelt, gespeichert oder erstellt werden, die gegen Bundesdatenschutzgesetze, Vorschriften oder Richtlinien des Verteidigungsministeriums verstoßen, und dass SMISC-Forscher keine PII von einer anderen Regierungsbehörde oder externen Quelle erhalten.”

Fernsteuerung

Während die Forschungsfinanzierung durch DARPA bestimmten ethischen und rechtlichen Beschränkungen unterliegt, ist es offensichtlich, dass andere Forschungen im Bereich der Manipulation sozialer Medien ohne eine solche Kontrolle durchgeführt werden. Wie Ars Anfang dieser Woche berichtete, zeigen Dokumente, die der ehemalige Mitarbeiter der National Security Agency, Edward Snowden, Glenn Greenwald von The Intercept zur Verfügung gestellt hat, dass der britische Geheimdienst GCHQ Tools entwickelt hat, die speziell darauf abzielen, soziale Medien für “Effekt”-Operationen zu nutzen. Die Organisation hat ihre Methoden mit der NSA geteilt, und diese Fähigkeiten wurden in Afghanistan und anderswo eingesetzt, um Informationen zu “formen”, die Mitgliedern von Zielorganisationen online und über Mobiltelefone zur Verfügung stehen.

Das Verteidigungsministerium setzt bereits einige Techniken zur Manipulation sozialer Medien als Teil seiner “Informationsunterstützungs”-Operationen ein und zielt dabei auf Messageboards und Websites, die mit als “extremistisch” eingestuften ausländischen Gruppen in Verbindung gebracht werden. In mindestens einem Fall führte dies zu einem Rückschlag in den Vereinigten Staaten. Im Jahr 2012 identifizierte ein Auftragnehmer des Verteidigungsministeriums eine Website, die von einem aus Somalia eingewanderten US-Bürger betrieben wurde, als “extremistische” Website, die mit der somalischen Terrorgruppe Al-Shabab in Verbindung gebracht wurde, und der Auftragnehmer empfahl dem Verteidigungsministerium, diese Website für “Messaging”-Kampagnen zu nutzen, um Anti-Al-Shabab-Meinungen zu verbreiten.

Die Infiltration der sozialen Medien macht auch vor dem Verteidigungsministerium und den Geheimdiensten nicht halt. Im April deckte Associated Press auf, dass die US-Behörde für internationale Entwicklung (USAID) 2009 versucht hatte, ZunZuneo zu gründen, ein Twitter-ähnliches mobiles soziales Netzwerk, mit dem das kommunistische Regime in Kuba untergraben werden sollte. Die vom Verteidigungsministerium finanzierte Forschung hat jedoch eine weitaus größere kulturelle Bedeutung als nur ein Instrument der Informationskriegsführung gegen Gegner im Ausland.

“Die Menschen glauben nicht gerne, dass sie manipuliert werden”, sagte Dixon. “Aber jeden Tag werden wir manipuliert – von der Werbung, von Regierungsvertretern, von religiösen Führern und sogar auf dem Weg zur Arbeit. Seiner Meinung nach lassen sich mathematische Modelle auf alles anwenden, vom Marketing bis zum Personalmanagement. “Wir arbeiten, weil wir meistens bezahlt werden, aber wie viel muss ich jemandem für seine Arbeit bezahlen? Wenn ich ihm sporadisch einen Bonus gebe, kann ich ihm dann insgesamt weniger zahlen? Wie bringe ich die Leute dazu, Levis oder Wrangler zu kaufen?”