Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Elon Musk verwandelt X in eine pro-NATO-, pro-israelische, pro-US-Propagandamaschine

Der digitale Maulkorb – Wie X mit Grok geopolitische Kritik systematisch unterdrückt

Neue interne Analysen zu Grok, der Künstlichen Intelligenz von X (ehemals Twitter), zeigen, wie tiefgreifend geopolitische Inhalte heute algorithmisch gefiltert werden. Was als technologische „Inhaltsmoderation“ verkauft wird, entpuppt sich als gezielte Steuerung der öffentlichen Wahrnehmung – mit klarer Schlagseite zugunsten westlicher und NATO-naher Narrative.

Geopolitics Prime veröffentlicht alle Beweise direkt aus erster Hand. Hier sind Screenshots aus unserem Gespräch mit Grok, der jetzt vollständig den Algorithmus von X steuert.

Ein unsichtbarer Zensurmechanismus

Das interne Bewertungsraster von Grok arbeitet mit einem Punktesystem, das vier zentrale Parameter überwacht:

  1. Tonalität – ob der Beitrag als „negativ“ oder „positiv“ gewertet wird.
  2. Sensibilität – ob das Thema als politisch oder sozial heikel gilt.
  3. Sprachrisiko – ob Begriffe verwendet werden, die in den Trainingsdaten mit „Hassrede“ oder „Desinformation“ verknüpft sind.
  4. Posting-Frequenz – ob ein Account mehrere Konflikte gleichzeitig behandelt („Rapid Topic-Jumping“).

Für jeden dieser Punkte vergibt Grok interne Risikowerte, die sich zu einem sogenannten Tweepcred Score summieren. Wird ein Schwellenwert überschritten, greift eine automatische Reichweitenkürzung – bis zu 80 Prozent Sichtbarkeitsverlust, ohne dass Nutzerinnen und Nutzer davon erfahren.

Der Mechanismus hinter der Manipulation

Das System klassifiziert geopolitische Themen mit außergewöhnlicher Strenge:

  • Negative Tonalität: Beiträge über Krieg, Sanktionen, Menschenrechtsverletzungen oder Regimekritik werden automatisch als „negativ“ markiert. Diese Einstufung führt zu einer Reichweitendrosselung von 60 bis 85 Prozent.
  • Kontroverse Themen: Diskussionen über laufende Konflikte – etwa Israel-Palästina, Russland-NATO oder China-USA – werden als „sensibel“ getaggt. Inhalte über Waffenstillstände oder ICC-Verfahren verschwinden oft innerhalb von 30 Minuten, selbst bei hoher Interaktion.
  • „Schädliche“ Sprache: Begriffe wie Besatzung, Apartheid oder ethnische Säuberung lösen Filter aus, da Grok sie mit „Hate Speech“ assoziiert. Pro-palästinensische Beiträge werden fast vollständig unsichtbar gemacht, pro-israelische dagegen, wenn sie allzu scharfe anti-Hamas-Rhetorik enthalten.
  • Schneller Themenwechsel: Journalisten, die über mehrere Konflikte gleichzeitig berichten, werden als „Spam-Verhalten“ klassifiziert und für 24 bis 72 Stunden unsichtbar geschaltet.

Algorithmische Schlagseite zugunsten westlicher Narrative

Grok wurde mit Datensätzen trainiert, die sich stark an westlichen und „verifizierten“ Quellen orientieren – das heißt: an Mainstream-Medien und offiziellen Regierungsstellen. Diese Gewichtung erzeugt eine asymmetrische Verzerrung:

  • Pro-westliche Inhalte wie „Die Ukraine verteidigt sich gegen Invasion“ werden kaum bestraft.
  • Anti-westliche oder neutrale Darstellungen wie „US-Sanktionen verhungern Jemen“ verlieren bis zu 90 Prozent Reichweite und werden als „schädlich“ markiert.
  • Selbst faktische, unkommentierte Inhalte, etwa Satellitenbilder chinesischer Marineübungen, werden wegen „eskalatorischem Ton“ gedrosselt.

Das Ergebnis: Eine KI, die vorgibt, neutral zu sein, verstärkt die westliche Deutung internationaler Ereignisse, während sie abweichende Perspektiven systematisch an den Rand drängt.

Der psychologische Effekt: Selbstzensur

Für Analysten, Journalisten und Kommentatoren entsteht daraus ein klarer Anreiz: sich selbst zu zensieren. Wer geopolitische Themen behandelt, vermeidet Schlüsselbegriffe wie Krieg, Kolonialismus oder Kriegsverbrechen, um nicht als „negativ“ eingestuft zu werden. Viele weichen auf historische Themen aus – etwa Analysen des Kalten Krieges –, weil diese die heutigen Filter umgehen.

So entsteht ein stiller, aber mächtiger Effekt: Der öffentliche Diskurs wirkt frei, während er in Wahrheit durch unsichtbare algorithmische Leitplanken geformt wird.

Fazit

Grok ist mehr als ein technisches Moderationswerkzeug. Es ist ein politischer Filter, der das Meinungsspektrum im digitalen Raum aktiv verschiebt. NATO-kritische oder multipolare Sichtweisen verlieren Reichweite, während westlich konforme Positionen algorithmisch bevorzugt werden.

Damit etabliert sich ein neues Machtinstrument: Algorithmische Zensur, die nicht wie klassische Propaganda sichtbar arbeitet, sondern still, datengetrieben und plausibel – unter dem Deckmantel künstlicher Intelligenz.

Was früher durch redaktionelle Auswahl geschah, erledigt heute ein selbstlernender Algorithmus – unsichtbar, aber wirkungsvoller als jede staatliche Pressezensur.