Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

“Skepsis” bekämpfen: Bundeszuschuss finanziert neue Anstrengung zur Bekämpfung von “Fehlinformationen”

Jonathan Turley

Wir haben über die umfassenden Bemühungen der Biden-Regierung gesprochen, Bürger, die der “Desinformation” oder “Fehlinformation” beschuldigt werden, auf schwarze Listen zu setzen oder zu zensieren (siehe Artikel von Jonathan Turley im Archiv). Zu diesen Bemühungen gehören Dutzende von FBI-Agenten und andere Mitarbeiter der Behörde, die mit Unternehmen der sozialen Medien zusammenarbeiten, um Konten zu sperren oder zu suspendieren. Außerdem wurden akademischen und anderen Organisationen Zuschüsse gewährt, um schwarze Listen zu erstellen oder Druck auf Werbekunden auszuüben, damit diese ihre Unterstützung für konservative Websites zurückziehen. Jetzt wurde ein weiterer solcher Zuschuss durch die National Science Foundation aufgedeckt, der Millionen an Professoren für die Entwicklung eines Tools zur Überprüfung von Fehlinformationen mit dem Namen “Course Correct” vergab. Das Tool soll helfen, “Skepsis” zu bekämpfen und das “Vertrauen” in das zu stärken, was die Regierung und die Programmierer als wahre oder verlässliche Standpunkte definieren.

Die National Science Foundation hat Berichten zufolge in den Jahren 2021 und 2022 Zuschüsse in Höhe von mehr als 5,7 Millionen Dollar für die Entwicklung von Course Correct gewährt, um Medien und Regierungsbeamte in die Lage zu versetzen, gezielt gegen Fehlinformationen zu Themen wie den US-Wahlen und dem Zögern bei der COVID-19-Impfung vorzugehen. Darüber hinaus unterstützte ein vom Coronavirus Aid, Relief and Economic Security Act finanzierter NSF-Zuschuss die Anwendung von Course Correct auf Fragen der psychischen Gesundheit.

Das System würde maschinelles Lernen und andere Mittel einsetzen, um Beiträge in sozialen Medien zu identifizieren, die sich auf Wahlskepsis und Impfstoffzögerung beziehen, und auch gefährdete Online-Gemeinschaften für eine Intervention kennzeichnen. Kommt Ihnen das bekannt vor?

Dies ist sehr ähnlich zu den Bemühungen um andere Zuschüsse durch Büros wie das Global Engagement Center des Außenministeriums und das National Endowment for Democracy.

Die Demokraten haben sich den Bemühungen widersetzt, das gesamte Ausmaß der Zensur und der Erstellung schwarzer Listen durch die Bundesregierung zu untersuchen. Es scheint jedoch, dass es eine ganze Reihe solcher Zuschüsse gibt, die unter dem Deckmantel der Bekämpfung dessen, was Forscher als “Desinformation” oder “Fehlinformation” bezeichnen, auf die freie Meinungsäußerung abzielen. Diese Begriffe sind in der Regel nicht klar definiert und haben sich wiederholt als Schutz vor Voreingenommenheit seitens der Forscher erwiesen.

Im Falle des in Großbritannien ansässigen Global Disinformation Index (GDI) wurden zehn konservative und libertäre Websites als die gefährlichsten Desinformationsquellen ermittelt. Anschließend wurde versucht, Werbetreibende davon zu überzeugen, ihre Unterstützung für diese Websites zurückzuziehen, während ihre liberalsten Gegenstücke als besonders vertrauenswürdig eingestuft wurden.

Das jüngste Projekt wird von Michael Wagner von der School of Journalism and Mass Communication der University of Wisconsin-Madison, Sijia Yang von der University of Wisconsin-Madison School of Journalism and Mass Communication, Porismita Borah vom Edward R. Murrow College of Communication der Washington State University, Srijan Kumar vom Georgia Tech’s College of Computing und Munmun De Choudhury von der School of Interactive Computing der Georgia Tech durchgeführt.

“Skepsis” bekämpfen: Bundeszuschuss finanziert neue Anstrengungen zur Bekämpfung von “Fehlinformationen”

Zensur wird nun auch dann befürwortet, wenn die zugrunde liegenden Informationen wahr sind. In einem anderen, kürzlich bekannt gewordenen Desinformationsprojekt an der Universität Stanford bestanden Experten darauf, dass selbst wahre Geschichten immer noch gefährliche Formen der Desinformation sein könnten, wenn sie zu einer “zögerlichen Haltung” gegenüber Impfstoffen oder anderen Themen beitragen.

Wie bei diesen früheren Zuschüssen ist nicht klar, was Course Correct konkret unter “nachweislich korrekten Informationen” versteht. Auf Nachfrage der konservativen Website The College Fix blieben die Forscher Berichten zufolge eine Antwort schuldig. Was “Fehlinformationen” sind, hängt von den Ansichten der Programmierer ab. Dennoch werden diese Systeme als etwas verkauft, das über Voreingenommenheit hinausgeht und die Wissenschaft nutzt, um uns vor unseren eigenen schlechten Ideen oder Vorurteilen zu schützen.

Kürzlich haben wir über die Forderung von Bill Gates diskutiert, künstliche Intelligenz (KI) einzusetzen, um uns vor schädlichen Gedanken oder Ideen zu schützen. In einem Interview in der deutschen Sendung “Handelsblatt Disrupt” rief Gates dazu auf, KI einzusetzen, um zu verhindern, dass bestimmte Ansichten “durch digitale Kanäle vergrößert werden”. Das Problem sei, dass wir zulassen, dass “verschiedene Verschwörungstheorien wie QAnon oder was auch immer von Leuten verbreitet werden, die diese Dinge glauben wollen.”

Gates fügte hinzu, dass KI die “politische Polarisierung” bekämpfen kann, indem sie “Bestätigungsfehler” kontrolliert.

Confirmation bias ist ein Begriff, der seit langem verwendet wird, um die Tendenz von Menschen zu beschreiben, nach Informationen zu suchen oder sie so zu interpretieren, dass sie ihre eigenen Überzeugungen bestätigen. Jetzt wird er verwendet, um Menschen mit gegenteiligen Ansichten als ignorante Trottel abzutun, die sich im Internet die Finger schmutzig machen – Menschen, die uns alle gefährden, indem sie die Logik hinter der Politik zu COVID, Klimawandel oder einer Vielzahl anderer politischer Themen nicht akzeptieren.

Dies ist nicht der erste Aufruf an die KI, uns vor uns selbst zu schützen. Im vergangenen September hielt Gates die Grundsatzrede auf dem Forbes 400 Summit on Philanthropy. Er sagte seinen Milliardärskollegen, dass “Polarisierung und mangelndes Vertrauen ein Problem sind”.

Das Problem sind wiederum … nun ja … die Menschen: “Die Menschen suchen nach einfachen Lösungen [und] die Wahrheit ist manchmal etwas langweilig.”

Natürlich nicht die KI. Die würde die Lösungen liefern. Andernfalls, so Gates, könnten wir alle sterben: “Die politische Polarisierung könnte das Ende bedeuten, wir werden ungültige Wahlen und einen Bürgerkrieg haben.”

Andere haben eine schöne neue Welt vorgeschlagen, in der die Bürger sorgfältig darauf achten müssen, was sie lesen und sehen. Führende Politiker der Demokraten haben aufgeklärte Algorithmen gefordert, die bestimmen, was die Bürger im Internet sehen. Im Jahr 2021 beanstandete Senatorin Elizabeth Warren (D-Mass.), dass die Menschen nicht auf die fundierten Ansichten von ihr selbst und führenden Experten hören würden. Stattdessen würden sie die Ansichten von Skeptikern lesen, indem sie bei Amazon nach Büchern von “prominenten Verbreitern von Fehlinformationen” suchen.

Warren beschuldigte Amazon, die Suche oder die Auswahl nicht einzuschränken: “Dieses Muster und diese Praxis des Fehlverhaltens legen nahe, dass Amazon entweder nicht willens oder nicht in der Lage ist, seine Geschäftspraktiken zu ändern, um die Verbreitung von Unwahrheiten oder den Verkauf unangemessener Produkte zu verhindern.” In ihrem Schreiben gab Warren dem Unternehmen 14 Tage Zeit, um seine Algorithmen zu ändern, die das Lesen gegenteiliger Meinungen erschweren und behindern.

Die Priorität für das Repräsentantenhaus sollte darin bestehen, das gesamte Spektrum dieser Finanzhilfen der Verwaltung für die Entwicklung von Blacklisting- oder Zensurinstrumenten zu ermitteln. Dies sollte zusätzlich zu den Bemühungen erfolgen, die direkte Arbeit von Bundesangestellten bei Zensurbemühungen in Unternehmen wie Twitter zu messen. Wir können über die Weisheit oder die Risiken einer solchen Arbeit debattieren, aber wir sollten zuerst Transparenz über den vollen Umfang der Zensurbemühungen der Bundesregierung haben, einschließlich des Einsatzes von akademischen und dritten Organisationen.