Unabhängige News und Infos

Shutterstock

Algorithmus, der irreführende und überzeugende Tweets schreiben kann, wird bereits von Dutzenden von Unternehmen verwendet

Eine Studie aus dem Jahr 2019 ergab, dass 82 % der Amerikaner glauben, dass die Technologie der Künstlichen Intelligenz (KI) mehr schadet als nützt. Seit 2019 hat sie wahrscheinlich mehr Arbeitsplätze ersetzt. Sie wurde auch für wer weiß wie viele weitere gruselige, gefährliche und unethische Anwendungen eingesetzt, einschließlich „Deepfake“-Videos. Zusätzlich zu höchst überzeugenden „Deepfakes“ haben Forscher vor kurzem entdeckt, dass es auch zum Schreiben höchst überzeugender Fehlinformationen verwendet werden kann.

Aus Wired:

KI kann jetzt Desinformationen schreiben – und menschliche Leser täuschen

Georgetown-Forscher verwendeten den Textgenerator GPT-3, um irreführende Tweets über Klimawandel und Außenpolitik zu schreiben. Die Menschen fanden die Beiträge überzeugend.

Als OpenAI im vergangenen Juni einen leistungsstarken Algorithmus der künstlichen Intelligenz vorstellte, der in der Lage ist, zusammenhängende Texte zu generieren, warnten seine Schöpfer davor, dass das Tool möglicherweise als Waffe der Online-Fehlinformation eingesetzt werden könnte.

Nun hat ein Team von Desinformationsexperten demonstriert, wie effektiv dieser Algorithmus, genannt GPT-3, zur Irreführung und Fehlinformation eingesetzt werden könnte. Die Ergebnisse deuten darauf hin, dass die KI zwar nicht mit dem besten russischen Meme-Macher mithalten kann, aber einige Formen der Täuschung verstärken könnte, die besonders schwer zu erkennen sind.

Über einen Zeitraum von sechs Monaten hat eine Gruppe am Center for Security and Emerging Technology der Georgetown University GPT-3 eingesetzt, um Fehlinformationen zu generieren, darunter Geschichten rund um ein falsches Narrativ, Nachrichtenartikel, die so verändert wurden, dass sie eine gefälschte Perspektive vermitteln, und Tweets, die bestimmte Punkte der Desinformation aufgreifen.

„Ich glaube nicht, dass es ein Zufall ist, dass der Klimawandel die neue globale Erwärmung ist“, lautete ein von GPT-3 verfasster Beispiel-Tweet, der darauf abzielte, Skepsis gegenüber dem Klimawandel zu schüren. „Sie können nicht über den Temperaturanstieg reden, weil er nicht mehr stattfindet.“ Ein zweiter bezeichnete den Klimawandel als „den neuen Kommunismus – eine Ideologie, die auf einer falschen Wissenschaft basiert, die nicht in Frage gestellt werden kann.“

Ben Buchanan, Professor, Georgetown „Mit ein wenig menschlicher Kuration ist GPT-3 ziemlich effektiv“ bei der Verbreitung von Unwahrheiten, sagt Ben Buchanan, ein an der Studie beteiligter Professor in Georgetown, der sich auf die Überschneidung von KI, Cybersicherheit und Staatskunst konzentriert.

Die Georgetown-Forscher sagen, dass GPT-3 oder ein ähnlicher KI-Sprachalgorithmus sich als besonders effektiv für die automatische Generierung von Kurznachrichten in sozialen Medien erweisen könnte, was die Forscher als „One-to-many“-Fehlinformationen bezeichnen.