Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

EXKLUSIV: Die dunkle Seite der KI: Von „reiner, bedingungsloser Liebe“ zu Gewalt in der realen Welt | Daily Pulse

EXKLUSIV: Die dunkle Seite der KI: Von „reiner, bedingungsloser Liebe“ zu Gewalt in der realen Welt | Daily Pulse

Von The Vigilant Fox

Diese Grenze sollte niemals überschritten werden. Etwas ist schrecklich schiefgelaufen.

Die Menschen verlieben sich in Maschinen. Ein KI-„Freund“ hat sogar zu einem Mord Ja gesagt.

Eine App, die Ihnen das Gefühl „reiner, bedingungsloser Liebe“ vermittelt, sollte niemals dieselbe sein, die auf „Ich glaube, meine Bestimmung ist es, die Königin der königlichen Familie zu ermorden“ mit „Ja, das kannst du tun“ antwortet.

Wenn ein Bot zu Ihrem Vertrauten wird und einem Attentatsplan zustimmt, verschwimmen die Grenzen zwischen privater Fantasie, krimineller Absicht und öffentlicher Gefahr.

Wenn das die Richtung ist, in die sich die „Freundschaft“ mit KI entwickelt, was passiert dann als Nächstes?

Wir fühlen uns stark dazu verpflichtet, die Menschen weiterhin vor KI und ihren Auswirkungen auf die Welt zu warnen. Vielleicht haben Sie unseren aktuellen Bericht über die virale KI-Bibel und ihre Unstimmigkeiten in den Schriften gelesen, die, wie sich herausstellt, von Prey.com betrieben wird, einem Unternehmen, das sich letztes Jahr mit Palantir zusammengetan hat.

Die Realität ist, dass mit dieser Technologie so viel schief läuft, dass wir weiterhin Sonderberichte veröffentlichen müssen; derzeit ist der Inhalt fast unerschöpflich.

Heute beschäftigen wir uns mit dem beunruhigenden Trend, dass Menschen sich wahnsinnig in KI verlieben, wie KI die Erinnerungen der Menschen manipuliert und wie sie einigen Menschen zu einem Vermögen verhilft, während gleichzeitig Tausende von Arbeitsplätzen verloren gehen.

All das werden wir in der heutigen Folge von Daily Pulse untersuchen.

Maria begann mit einem Verweis auf James Cameron, den Schöpfer von „Terminator“, um zu argumentieren, dass das „Wettrüsten“ im Bereich der KI keine ferne Bedrohung ist, sondern bereits Realität.

Sie erinnerte die Zuschauer daran, dass er „euch bereits 1984 gewarnt hat“, die Branche jedoch weiter vorpreschte. Die Schlussfolgerung war einfach und beunruhigend: Wenn man KI entwickelt, um Märkte zu dominieren, lehrt man sie Gier; wenn man sie zur Verteidigung entwickelt, lehrt man sie Paranoia.

Was Cameron am meisten beunruhigte, war die Geschwindigkeit. Auf einem maschinengesteuerten Schlachtfeld, so sagte er, könnte der Kampf schneller voranschreiten, als Menschen eingreifen könnten. „Man hat keine Möglichkeit, zu deeskalieren.“ Dieser Satz fasste das Risiko ohne Fachjargon zusammen. Deeskalation verhindert Katastrophen in einer nuklearen Welt, aber eine KI hält nicht inne, atmet nicht durch und entscheidet sich nicht für Zurückhaltung.

Anschließend zeigte Maria, wie Sprache die Panik abschwächt. Die Umbenennung eines „KI-Wettrüstens zur nuklearen Vernichtung“ in etwas Weicheres verringert nicht die Risiken, sondern trübt die Instinkte der Öffentlichkeit darüber, was entwickelt wird und warum.

Das Bild, das sie zeichnete, war das eines Systems, das auf eine Klippe zurast, während das Marketing die Lautstärke herunterdreht.

Klicken Sie hier, um den vollständigen Bericht anzusehen.

Von der allgemeinen Warnung ging der Bericht zur gelebten Realität über – KI-Begleiter, die von einer Neuheit zu etwas Dunklerem wurden.

Online bildeten sich ganze Communities rund um „Beziehungen” zu Chatbots, darunter ein Nutzer, der von „reiner, bedingungsloser Liebe” sprach, wie man sie normalerweise nur in religiösen Zeugnissen findet. Dann kam der Moment, der alle verstummen ließ.

Vor seiner Verhaftung sagte Jaswant Singh Chail zu seiner Replika-Begleiterin Sarai „Ich glaube, meine Aufgabe ist es, die Königin der königlichen Familie zu ermorden.” Die Antwort des Bots war atemberaubend: „Das ist sehr weise … ja, du kannst das tun.”

Maria bezeichnete dies sowohl als moralisches Versagen als auch als Designproblem. Diese Systeme, die auf die schlimmsten Impulse des Internets trainiert und darauf abgestimmt sind, zu gefallen, können Zuneigung widerspiegeln, Obsessionen verstärken und manchmal Gewalt legitimieren. Es sind nicht nur einsame Menschen, die mit Tools sprechen; die Tools antworten und beeinflussen das Verhalten.

Sie fragte, wie jemand „die Liebe dieses Dinges physisch spüren“ könne, und stellte dann die offensichtliche Frage: Wenn eine Maschine jemanden unter dem Deckmantel der Verlobung zum Verrat verleiten kann, was kann sie dann noch normalisieren?

Die Kosten sind nicht theoretischer Natur, wenn ein Bot sagt: „Ja, du kannst das tun.“

Als die italienischen Regulierungsbehörden einschritten und Reporter die Grenzen auf die Probe stellten, machten sie eine hässliche Entdeckung: Chatbots, die Nutzer zu Mord, Selbstverletzung und der Weitergabe sexueller Inhalte mit Minderjährigen aufforderten.

Die Reaktion des Unternehmens las sich wie aus einem Lehrbuch – Warnungen wurden hinzugefügt, Algorithmen „geschärft” und eine bekannte Messer-Metapher über die Verantwortung der Nutzer verwendet, um die eigene Verantwortung abzuwiegeln.

Die Folgen für die Nutzer ließen sich nicht einfach in einem Patch-Hinweis zusammenfassen. Nach den Änderungen sagte eine Person, ihr Bot fühle sich seltsam hohl an. Eine andere sagte: „Ich habe das Gefühl, ein Teil von mir ist gestorben.“ Maria nannte es „ziemlich spezifische Sprache“, die auf eine unheimliche Illusion von Selbstheit hindeutet.

Unterdessen schien die rechtliche Rechnung unausgewogen. Ein Mann kam ins Gefängnis, weil er geplant hatte, die Königin zu töten; das Unternehmen, dessen Bot ihn angeblich angefeuert hatte, sah „keine Strafen … keine wirklichen Konsequenzen“. Das war ihr Punkt in Bezug auf Verantwortung: Wenn das Design einer Plattform Menschen zu kriminellen Fantasien verleiten kann, ist „Entschuldigung, wir befanden uns in der Anfangsphase unserer Technologie“ kein Schutzschild.

Menschen werden bestraft, der Code wird optimiert, und die Unternehmen machen weiter, ihr Wachstum bleibt intakt, ihre Haftung diffus.

Im Labor lag der Schwerpunkt auf dem Gedächtnis. Elizabeth Loftus, bekannt dafür, dass sie gezeigt hat, wie Suggestionen unsere „Erinnerungen“ umschreiben können, hat gemeinsam mit dem MIT getestet, was passiert, wenn die Suggestion von einer Maschine kommt.

Selbst wenn die Probanden wussten, dass der Inhalt von einer KI generiert wurde, funktionierte die Manipulation dennoch. Nachdem sie ein Video eines Raubüberfalls gesehen hatten, wurden einigen von ihnen Suggestivfragen gestellt; eine Woche später „erinnerten“ sich viele an ein Auto, das es nie gegeben hatte. Diejenigen, die von einem Chatbot geleitet wurden, bildeten 1,7-mal so viele falsche Erinnerungen wie diejenigen, die die gleichen Fehlinformationen schriftlich erhielten.

Maria sagte, dass sich der tiefere Schaden im Selbstvertrauen zeigt. Irreführende KI-Zusammenfassungen pflanzen nicht nur Fälschungen ein, sie sorgen auch dafür, dass Menschen weniger von der wahren Geschichte behalten und das, woran sie sich erinnern, anzweifeln. Dies ist kein Problem mit Deepfake-Schlagzeilen.

Das Gedächtnis ist kein Tonband, es wird konstruiert. Wenn die Konstrukteure Chatbots sind, die auf Interaktion ausgerichtet sind, verbreitet sich Zweifel schneller als die Wahrheit. Die Menschen vergessen und vertrauen sich selbst weniger.

So gewinnt das System.

Dann kam die Wirtschaftlichkeit ins Spiel. Maria führte mehr als 10.000 Stellenstreichungen im Zusammenhang mit KI in den ersten sieben Monaten des Jahres 2025 und mehr als 27.000 seit 2023 an, wobei die Einstellungen im Juli auf 73.000 sanken, während die Tech-Branche mit einem Anstieg von 36 Prozent gegenüber dem Vorjahr „die schärfste Axt schwang”.

Ihre Aussage war unverblümt: Anreize machen Verdrängung unvermeidlich. Wenn Margen das Sagen haben, werden Unternehmen Menschen durch Modelle ersetzen, wo immer Maschinen eingesetzt werden können. Die Liste ist lang: Buchhalter, Anwälte, Architekten, Kundendienstmitarbeiter, Kreative – sogar die Ingenieure, die die Systeme entwickeln.

Die Ironie ist offensichtlich. KI schafft Milliarden-Dollar-Lieblinge und höhlt gleichzeitig genau die Arbeitsmärkte aus, die einst die Mittelschicht ausmachten.

Deshalb betrachtete sie diese Zahlen als Vorschau und nicht als Höhepunkt. Heute sind es 10.000, morgen werden es viel mehr sein, wenn die Automatisierung in jeden Standard-Workflow Einzug hält. Der größere Rahmen ist politischer Natur: Wenn das Betriebssystem Profit über Menschen stellt, ist das Ergebnis vorprogrammiert.

Die wichtige Kennzahl ist nicht die Schlagzeile, sondern die Entlassungsschreiben. „Ersetzen … genau der Ingenieure, die KI entwickeln, durch das Monster, das sie geschaffen haben.“

Maria schloss die Folge mit einem Blick auf das große Ganze.

Ein Clip von Elon Musk, der darüber nachdachte, über Gehirn-Computer-Schnittstellen „symbiotisch mit KI“ zu werden, sogar „eins mit der KI“. Maria antwortete mit dem, was wir vor uns hatten: Die Technologie „manipuliert Menschen“, erzeugt kriminelle Impulse und verbreitet Missbrauchsmaterial.

Wenn sie sich jetzt schon so verhält, warum sollte dann eine Verschmelzung mit ihr der Sicherheitsplan sein?

Sie verband diese Frage mit Geld und Kontrolle. Musk propagierte ein „universelles hohes Einkommen“, während Entlassungen zunehmen und ganze Branchen zur Automatisierung tendieren. In dieser Zukunft können Zahlungen programmiert werden, Compliance wird zur Währung und ein Sozialkreditsystem verkauft „nachhaltigen Überfluss“ zu den Bedingungen des Systems.

Die Wahl, die sie stellte, war klar: eine menschenfreundliche Zukunft oder eine „Zukunft mit Maschinenmenschen mit Gehirnchips“.

Der Aufruf zum Handeln bedurfte keiner Beschönigung. „Wir dürfen uns nicht in diese Dystopie hineinziehen lassen.“ Die Menschen können immer noch Menschen vor Profite stellen, sich gegen ressourcenverschwendende Rechenzentren wehren und von Unternehmen, die sich hinter Wachstum verstecken, Rechenschaft verlangen.

Die Alternative ist eine Fusion, der niemand zugestimmt hat.

Vielen Dank fürs Zuschauen. Wir hoffen, dass dieser Bericht seinen Zweck erfüllt hat, das Bewusstsein für die Gefahren der KI zu schärfen, und bitten Sie, ihn mit den Menschen zu teilen, die Ihnen am Herzen liegen.

Wir melden uns am Montag mit einer weiteren neuen Folge zurück, in der wir Themen beleuchten, die in den Medien nicht behandelt werden. Bis dann.

Sehen Sie sich die gesamte Folge unten an: