Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Es fängt an: KI wird eingesetzt, um Wähler zu täuschen und Wahlen weltweit zu stören
Das ist ein Widerspruch in sich: Ein Werbebanner mit einem Slogan über künstliche Intelligenz ist an einem Gebäude an der Davoser Promenade neben dem Weltwirtschaftsforum in Davos, Schweiz, am 18. Januar 2024 angebracht. (AP Photo/Markus Schreiber, File)

Es fängt an: KI wird eingesetzt, um Wähler zu täuschen und Wahlen weltweit zu stören

Gepostet von: Ali Swenson und Kelvin Chan via AP

Das WEF, die UNO und die globalen Eliten wollen die Demokratie weltweit zerstören, auch wenn sie behaupten, dass sie die Demokratie retten werden. Das Hauptthema des WEF bei seinem Treffen 2024 in Davos war “Desinformation”, die seine Existenz bedroht, während Big Tech, Regierungen und “Faktenprüfer” dazu aufgerufen wurden, KI zu nutzen, um abweichende Meinungen auszuschalten. Der nachstehende Artikel ist daher als trojanisches Pferd zu verstehen, das die institutionellen Betrüger verschleiern und den Rest allen anderen in die Schuhe schieben soll.

Die zivilisierte Welt steht vor einem schweren Schlag gegen die Realität, da die Menschen ihre Fähigkeit verlieren, die Wahrheit von der Propaganda zu unterscheiden. Dies ist ein Simulakrum.

Wie ich in der Warnung geschrieben habe : Die Realität verschwindet durch die Hintertür im Jahr 2023,

Jean Baudrillard schrieb darüber 1981 in einem Aufsatz mit dem Titel “The Precession of Simulacra” (Die Präzession der Simulakren), in dem er die Unterscheidung zwischen einer Simulation und einem Simulakrum trifft.

Während die Repräsentation versucht, die Simulation zu absorbieren, indem sie sie als falsche Repräsentation interpretiert, umhüllt die Simulation das gesamte Gebäude der Repräsentation selbst als Simulakrum. Dies wären die aufeinanderfolgenden Phasen des Bildes:

Es ist die Reflexion einer tiefen Wirklichkeit;

es maskiert und denaturiert eine tiefe Wirklichkeit;

es maskiert die Abwesenheit einer tieferen Wirklichkeit;

es hat keine Beziehung zu irgendeiner Realität;

sie ist ihr eigenes reines Simulakrum.

Der Schalter für die Realität ist also die Anti-Realität: “Das Simulakrum ist niemals das, was die Wahrheit verbirgt – es ist die Wahrheit, die die Tatsache verbirgt, dass es keine gibt.

TN Editor

Künstliche Intelligenz verstärkt die Bedrohung durch Desinformation bei Wahlen weltweit und macht es jedem, der über ein Smartphone und eine blühende Fantasie verfügt, leicht, gefälschte – aber überzeugende – Inhalte zu erstellen, um die Wähler zu täuschen.

Dies ist ein Quantensprung im Vergleich zu vor einigen Jahren, als für die Erstellung gefälschter Fotos, Videos oder Audioclips noch Teams mit Zeit, technischem Geschick und Geld erforderlich waren. Heute kann jeder mithilfe kostenloser und kostengünstiger generativer künstlicher Intelligenzdienste von Unternehmen wie Google und OpenAI hochwertige “Deepfakes” mit nur einer einfachen Texteingabe erstellen.

Experten warnen, dass KI und Deepfakes bei den kommenden Wahlen wahrscheinlich noch schlimmer sein werden.
Hier erfahren Sie, wie Regierungen und Organisationen auf die Bedrohung reagieren.

  • In den USA hat die FCC KI-Anrufe verboten, mit denen Wähler abgeschreckt werden sollen.
  • Große Technologieunternehmen haben eine Vereinbarung unterzeichnet, um zu verhindern, dass KI zur Störung demokratischer Wahlen weltweit eingesetzt wird.
  • Und ein Bericht aus Davos stellt fest, dass KI-gestützte Fehlinformationen die größte kurzfristige Bedrohung der Welt darstellen.

KI-gestützte Fehlinformationen und Desinformationen werden zu einem Risiko, wenn die Menschen in einer Reihe von Ländern zu den Urnen gehen. Lesen Sie mehr über die 25 Wahlen im Jahr 2024, die die Welt verändern könnten, und werfen Sie einen Blick auf weitere globale Wahlberichte der AP.

Eine Welle von KI-Deefakes im Zusammenhang mit Wahlen in Europa und Asien schwappt seit Monaten durch die sozialen Medien und dient als Warnung für mehr als 50 Länder, die dieses Jahr zur Wahl gehen.

“Man braucht nicht weit zu schauen, um zu sehen, dass einige Leute … eindeutig verwirrt sind, ob etwas echt ist oder nicht”, sagte Henry Ajder, ein führender Experte für generative KI in Cambridge, England.

Die Frage ist nicht mehr, ob KI-Deefakes die Wahlen beeinflussen könnten, sondern wie einflussreich sie sein werden, sagte Ajder, der eine Beratungsfirma namens Latent Space Advisory betreibt.

Während sich das US-Präsidentschaftsrennen aufheizt, warnte FBI-Direktor Christopher Wray kürzlich vor der wachsenden Bedrohung, indem er sagte, generative KI mache es “ausländischen Gegnern leicht, bösartigen Einfluss zu nehmen”.

Mit KI-Deefakes kann das Image eines Kandidaten verwischt oder abgeschwächt werden. Die Wähler können zu den Kandidaten hin- oder von ihnen weggelenkt werden – oder sogar den Urnengang ganz vermeiden. Die vielleicht größte Bedrohung für die Demokratie besteht nach Ansicht von Experten jedoch darin, dass eine Welle von KI-Deepfakes das Vertrauen der Öffentlichkeit in das, was sie sieht und hört, untergraben könnte.

Einige aktuelle Beispiele für KI-Deefakes sind:

  • Ein Video der pro-westlichen Präsidentin Moldawiens, die eine russlandfreundliche Partei unterstützt.
  • Audioclips des Vorsitzenden einer liberalen Partei in der Slowakei, der über Wahlmanipulationen und die Erhöhung des Bierpreises spricht.
  • Ein Video einer oppositionellen Gesetzgeberin in Bangladesch – einem konservativen Land mit muslimischer Mehrheit – die einen Bikini trägt.

Aufgrund der Neuartigkeit und Raffinesse der Technologie ist es schwierig, die Hintermänner der KI-Fälschungen zu ermitteln. Experten sagen, dass Regierungen und Unternehmen noch nicht in der Lage sind, die Flut zu stoppen, und dass sie auch nicht schnell genug handeln, um das Problem zu lösen.

Da die Technologie immer besser wird, wird es schwer sein, endgültige Antworten auf viele der gefälschten Inhalte zu finden”, so Ajder.

VERTRAUEN ENTSTEHEN

Einige KI-Täuschungsmanöver zielen darauf ab, Zweifel an der Zugehörigkeit von Kandidaten zu säen.

In Moldawien, einem osteuropäischen Land an der Grenze zur Ukraine, war die pro-westliche Präsidentin Maia Sandu ein häufiges Ziel. Ein AI-Depfake, der kurz vor den Kommunalwahlen kursierte, zeigte sie als Unterstützerin einer russlandfreundlichen Partei und kündigte ihren Rücktritt an.

Beamte in Moldawien glauben, dass die russische Regierung hinter diesen Aktivitäten steckt. Angesichts der diesjährigen Präsidentschaftswahlen zielen die Deepfakes darauf ab, “das Vertrauen in unseren Wahlprozess, die Kandidaten und die Institutionen zu untergraben – aber auch das Vertrauen zwischen den Menschen”, sagte Olga Rosca, eine Beraterin von Sandu. Die russische Regierung lehnte eine Stellungnahme für diesen Artikel ab.

Auch China wurde beschuldigt, generative KI für politische Zwecke einzusetzen.

In Taiwan, einer selbstverwalteten Insel, die China für sich beansprucht, erregte ein KI-Deepfake Anfang des Jahres Aufmerksamkeit, weil er Bedenken über die Einmischung der USA in die lokale Politik weckte.

Der gefälschte Clip, der auf TikTok kursierte, zeigte den US-Abgeordneten Rob Wittman, stellvertretender Vorsitzender des Ausschusses für Streitkräfte des US-Repräsentantenhauses, der eine stärkere militärische Unterstützung Taiwans durch die USA versprach, falls die Kandidaten der amtierenden Partei im Januar gewählt würden.

Wittman beschuldigte die Kommunistische Partei Chinas, sich in die taiwanesische Politik einzumischen, und sagte, sie nutze TikTok – ein Unternehmen in chinesischem Besitz – zur Verbreitung von “Propaganda”.

Ein Sprecher des chinesischen Außenministeriums, Wang Wenbin, sagte, seine Regierung kommentiere keine gefälschten Videos und sei gegen die Einmischung in die inneren Angelegenheiten anderer Länder. Die Wahlen in Taiwan, so betonte er, seien “eine lokale Angelegenheit Chinas”.

VERWISCHUNG DER REALITÄT

Reine Audio-Fälschungen sind besonders schwer zu verifizieren, da sie im Gegensatz zu Fotos und Videos keine verräterischen Anzeichen für manipulierte Inhalte aufweisen.

In der Slowakei, einem anderen Land, das von russischem Einfluss überschattet wird, wurden wenige Tage vor den Parlamentswahlen Audioclips, die der Stimme des liberalen Parteichefs ähneln, in den sozialen Medien verbreitet. In den Clips wird behauptet, dass er über die Erhöhung von Bierpreisen und Wahlmanipulationen spricht.

Es sei verständlich, dass die Wähler auf die Täuschung hereinfallen könnten, so Ajder, denn die Menschen seien “viel mehr daran gewöhnt, mit den Augen als mit den Ohren zu urteilen”.

In den USA wurden die Wähler in New Hampshire durch Roboteranrufe, die sich als US-Präsident Joe Biden ausgaben, aufgefordert, sich bei den Vorwahlen im Januar der Stimme zu enthalten. Die Anrufe wurden später zu einem politischen Berater zurückverfolgt, der angab, er wolle auf die Gefahren von KI-Täuschungen hinweisen.

In ärmeren Ländern, in denen die Medienkompetenz geringer ist, können selbst minderwertige KI-Fälschungen wirksam sein.

Dies war letztes Jahr in Bangladesch der Fall, in dem die Oppositionsabgeordnete Rumeen Farhana – eine lautstarke Kritikerin der Regierungspartei – fälschlicherweise mit einem Bikini abgebildet wurde. Das virale Video löste in dem konservativen, mehrheitlich islamischen Land Empörung aus.

“Sie vertrauen allem, was sie auf Facebook sehen”, sagte Farhana.

Experten sind besonders besorgt über die bevorstehenden Wahlen in Indien, der weltweit größten Demokratie, wo die Plattformen der sozialen Medien eine Brutstätte für Desinformation sind.

EINE HERAUSFORDERUNG FÜR DIE DEMOKRATIE

Einige politische Kampagnen nutzen generative KI, um das Image ihrer Kandidaten zu verbessern.

In Indonesien setzte das Team, das die Präsidentschaftskampagne von Prabowo Subianto leitete, eine einfache mobile App ein, um eine engere Verbindung zu den Anhängern in dem riesigen Inselstaat aufzubauen. Die App ermöglichte es den Wählern, Fotos hochzuladen und KI-generierte Bilder von sich und Subianto zu erstellen.

Angesichts der zunehmenden Zahl von KI-Fälschungen bemühen sich Behörden auf der ganzen Welt, Schutzmaßnahmen zu ergreifen.

Die Europäische Union verlangt bereits von Social-Media-Plattformen, das Risiko der Verbreitung von Desinformation oder “Wahlmanipulation” zu verringern. Ab nächstem Jahr wird sie eine besondere Kennzeichnung von KI-Deepfakes vorschreiben – zu spät für die EU-Parlamentswahlen im Juni. Doch der Rest der Welt ist schon viel weiter.

Die weltweit größten Technologieunternehmen haben kürzlich – und zwar freiwillig – einen Pakt unterzeichnet, um zu verhindern, dass KI-Tools Wahlen stören. So hat unter anderem das Unternehmen, dem Instagram und Facebook gehören, angekündigt, dass es Deepfakes, die auf seinen Plattformen erscheinen, kennzeichnen wird.

Bei Apps wie dem Chatdienst Telegram, der den freiwilligen Pakt nicht unterzeichnet hat und verschlüsselte Chats verwendet, die schwer zu überwachen sind, ist es jedoch schwieriger, Deepfakes einzudämmen.

Einige Experten befürchten, dass die Bemühungen zur Eindämmung von KI-Täuschungen unbeabsichtigte Folgen haben könnten.

Wohlmeinende Regierungen oder Unternehmen könnten die manchmal “sehr dünne” Grenze zwischen politischen Kommentaren und einem “illegitimen Versuch, einen Kandidaten zu verleumden”, mit Füßen treten, sagte Tim Harper, ein leitender politischer Analyst am Center for Democracy and Technology in Washington.

Die großen generativen KI-Dienste verfügen über Regeln zur Eindämmung politischer Desinformation. Experten sagen jedoch, dass es nach wie vor zu einfach ist, die Beschränkungen der Plattformen zu umgehen oder alternative Dienste zu nutzen, die nicht über die gleichen Sicherheitsvorkehrungen verfügen.

Auch ohne schlechte Absichten ist der zunehmende Einsatz von KI problematisch. Viele beliebte KI-gesteuerte Chatbots spucken immer noch falsche und irreführende Informationen aus, die die Wähler zu entmündigen drohen.

Und die Software ist nicht die einzige Bedrohung. Die Kandidaten könnten versuchen, die Wähler zu täuschen, indem sie behaupten, dass reale Ereignisse, die sie in einem ungünstigen Licht erscheinen lassen, von der KI erzeugt wurden.

“Eine Welt, in der alles verdächtig ist – und in der sich jeder aussuchen kann, was er glaubt – ist auch eine Welt, die für eine florierende Demokratie eine echte Herausforderung darstellt”, sagt Lisa Reppell, Forscherin bei der International Foundation for Electoral Systems in Arlington, Virginia.