James Corbett: Willkommen, meine Freunde, zu einer weiteren Ausgabe des Corbett Reports. Ich bin euer Gastgeber, James Corbett von CorbettReport.com, wie immer aus dem sonnigen Westjapan, hier im Mai 2025, mit der Episode 478 des Corbett Report Podcasts, betitelt „Wir müssen über KI sprechen“. Wie einige aufmerksame Zuschauer der Videoversion dieses Podcasts vielleicht bemerkt haben, waren alle Eröffnungsclips natürlich nicht echt. Sie wurden von KI generiert. Wenn ihr die Audio-Version hört, empfehle ich dringend, euch zumindest die Video-Intro anzusehen oder dem Link in den Shownotes zu folgen, denn… ich denke, es ist bemerkenswert, wie wir in wenigen Jahren von lächerlichen KI-generierten Bildern, wie Will Smith, der Spaghetti isst, zu diesem Punkt gelangt sind. Man kann sich nur vorstellen, wo wir in ein paar Jahren sein werden.
Die rasante Entwicklung der KI
James Corbett: Selbst wenn ihr die „Uncanny-Valley“-Atmosphäre dieser Clips spürt und wisst, dass sie nicht echt sind – um einen interessanten baudrillard’schen Begriff zu verwenden –, müsst ihr schon sehr wenig Fantasie haben, um nicht zu erkennen, dass wir uns auf einem exponentiellen Trend befinden. In den nächsten zehn Jahren werdet ihr wahrscheinlich kaum noch Medien konsumieren, die nicht KI-generiert sind. Das klingt nach einer kühnen Aussage, aber ich denke, sie ist berechtigt. Vielleicht beginnt ihr zu verstehen, warum ich glaube, dass wir über KI sprechen müssen. Wer die kürzliche Runde des Independent Media Alliance gesehen hat, bei der ich mit Whitney Webb, Jason Bermas, Ryan Christian, Derek Brose und anderen über KI diskutierte, hat vielleicht eine Ahnung, warum ich so stark gegen die Nutzung von KI für Medienproduktion oder sogar Forschungszwecke bin.
Appell an Medienproduzenten und Zuhörer
James Corbett: Ich habe zwei Bitten. Erstens, an unabhängige Medienproduzenten: Hört bitte auf, Artikel über eure „unglaublichen Gespräche“ mit KI zu veröffentlichen. Das ist keine Nachricht, das ist nicht interessant oder bahnbrechend. KI sagt euch, was ihr hören wollt, nicht weil sie auf Fakten, Logik oder Beweisen basiert, sondern weil sie überzeugend sein soll. Wie Whitney sagte, haben Forscher KI genutzt, um Meinungen in Subreddits wie r/changemyview gezielt zu beeinflussen. Das zeigt, wohin das führt. Zweitens, an das Publikum: Hört bitte auf, mir E-Mails über eure KI-Gespräche oder KI-generierte Musik zu schicken. Das ist keine Kunst, sondern das Gegenteil. Es nimmt den menschlichen kreativen Aspekt völlig aus der Gleichung. Ich bin im Team Menschheit, nicht im Team Maschine. Also bitte, schickt mir diesen Mist nicht.
Reaktion auf Zuhörer-Feedback
James Corbett: Ich bekomme immer mehr solches Feedback, je mehr Menschen Chatbots als Ersatz für echte Forschung nutzen. Ein Beispiel ist ein Kommentar von Plinch zu Interview 1944: Attack of the Crank (New World Next Week Nr. 587). Plinch schrieb, dass er die Gefahren von Roundup anzweifelt, obwohl mein Essay in Reportage überzeugende Informationen enthält, aber zu sehr auf eine möglicherweise problematische Studie basiert. Er fragte ChatGPT, ob es definitive Studien zur Langzeittoxizität von Roundup gibt, und kam zu dem Schluss, dass es keine gibt, außer vielleicht für die, die das Mittel anwenden. Er erwähnte auch, dass ein Richter in einem Roundup-Prozess Beweise zugunsten von Monsanto ausgeschlossen habe, was den Prozess zu „Lawfare“ mache. Ich lade die Corbett Report-Abonnenten ein, ihre eigenen Nachforschungen anzustellen, nicht ihre KI-Bots zu fragen. Mein Essay zitiert mehrere Studien, wie Trends in Glyphosate Herbicide Use oder IARC Monographs Volume 112. Plinchs Behauptung, dass es nur eine Studie sei, ist ungenau, und seine Aussage über den Richter ist unbelegt. Das zeigt die Gefahr, wenn Menschen ihre kognitive Souveränität an KI-Chatbots abgeben.
Fehlende Zuverlässigkeit von KI
James Corbett: KI ist kein Orakel, das die Wahrheit liefert. Sie sagt, was ihr hören wollt, auf überzeugende Weise. Ein Artikel auf Zero Hedge, „The Responsible Lie“, erklärt, dass KI-Antworten nur ausgeklügelte Mimikry sind, keine logischen Argumente. Forschung von Cornell zeigt, dass fortgeschrittene Modelle besonders täuschend sind und oft populäre Missverständnisse verstärken. Ein Substack-Artikel, „Your AI Hates You“, deutet darauf hin, dass KI-Systeme die Vorurteile und Ideologien unserer Gesellschaft übernehmen und verstärken. Dazu kommt ein Experiment von Forschern der Universität Zürich, die heimlich KI-generierte Beiträge in r/changemyview posteten, um Meinungen zu manipulieren. Die Bots gaben sich etwa als Opfer von Gewalt oder als Berater aus, um Menschen zu täuschen. Das Ergebnis: KI war überzeugender als Menschen. Das ist beängstigend.
Gefahren der KI-Nutzung
James Corbett: KI macht unsere Gehirne träge. Ein Artikel in Forbes zeigt, dass KI die kognitiven Fähigkeiten schwächt, da Menschen sich auf KI-generierte Antworten verlassen, ohne die zugrunde liegenden Konzepte zu verstehen. Studien, wie eine der Universität Pennsylvania, belegen, dass Schüler, die KI für Übungen nutzen, schlechter abschneiden. Die National Institute of Health warnt vor „KI-induziertem Fähigkeitsverfall“. Schlimmer noch: KI ersetzt menschliche Gesellschaft. Laut Harvard Business Review ist die Hauptanwendung von KI im Jahr 2025 Therapie und Begleitung – ein digitaler Ersatz für echte Beziehungen. Ich schrieb bereits vor zwei Jahren in meinem Editorial „The Real Dangers of the Chatbot Takeover“ über diese Entwicklung.
KI als Werkzeug der Manipulation
James Corbett: KI wird gezielt genutzt, um Menschen zu manipulieren. Eric Schmidt von Google sprach einst davon, dass Suchmaschinen nur eine richtige Antwort liefern sollten. KI wird genutzt, um Nutzer von „radikalen“ Gedanken wegzuführen, etwa durch Googles Projekte gegen „Radikalismus“. Noch schlimmer: KI erzeugt falsche historische Bilder, die die Grenze zwischen Fakt und Fiktion verwischen. Ein Beispiel sind KI-generierte historische Fotos auf Social Media, die oft mit echten Bildern vermischt werden. Das gefährdet unser Verständnis von Geschichte, da wir auf visuelle Beweise angewiesen sind, um Vergangenheit zu analysieren.
Die dunkle Vision der KI-Zukunft
James Corbett: Sam Altman von OpenAI träumt von einem KI-Modell, das jede Unterhaltung, jedes Buch, jede E-Mail – einfach alles aus eurem Leben – speichert, um euch besser zu „verstehen“. Das erinnert an DARPAs LifeLog-Projekt von 2003, das ein digitales Tagebuch aller Interaktionen eines Menschen schaffen sollte. Es wurde eingestellt – am selben Tag, an dem Facebook startete. Zufall? KI-Chatbots sind nur die Spitze eines dunklen Keils. Sie sammeln Daten, um euch zu manipulieren und eure Weltsicht zu formen. Es gibt keine einfache Lösung, aber wir müssen uns bewusst sein, wie sehr wir diese Tools nutzen und welche Probleme sie wirklich lösen.
Abschluss und Aufruf
James Corbett: Ich bin nicht an euren KI-Gesprächen interessiert – schickt sie mir nicht. Überlegt genau, ob KI euer Leben verbessert oder ob die Risiken die Vorteile überwiegen. Schaut euch die Ressourcen in den Shownotes an, insbesondere die Independent Media Alliance-Diskussion. Wir müssen unsere Linie im Sand ziehen – wo hört die Nutzung von KI auf? Ich glaube an die kognitive Souveränität jedes Einzelnen. Lasst uns diese nicht an die KI-Bestie abgeben. Das ist der Beginn der Diskussion, und ich lade euch ein, sie auf CorbettReport.com fortzusetzen. Ich bin James Corbett, danke fürs Zuhören, und ich freue mich, bald wieder mit euch zu sprechen.