Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Dr. John Lennox über künstliche Intelligenz, Yuval Harari und den vielleicht gefährlichsten von allen – den Langfristismus

Dr. John Lennox diskutiert KI, Yuval Harari und möglicherweise das gefährlichste Thema von allen – den Langfristigkeitsansatz.

Von Rhoda Wilson

Dr. John Lennox, ein renommierter Oxford-Mathematiker und Autor von “2084: Künstliche Intelligenz und die Zukunft der Menschheit“, sprach mit Larry Taunton. Sie diskutierten über künstliche Intelligenz (“AI”) und ihre ethischen Auswirkungen. Dr. Lennox betonte, dass KI selbst in ihrem derzeitigen Stadium dringende ethische Bedenken aufwirft, insbesondere in Bezug auf Datenschutz, Überwachung und Desinformation.

Er wies auf die alarmierende Zunahme der Deepfake-Technologie hin, die Audio- und Videomaterial manipulieren kann, um sich überzeugend als eine Person auszugeben, was zur Verbreitung von Falschinformationen führt. Dies stelle eine große Herausforderung dar, wenn es darum gehe, die Authentizität im öffentlichen Diskurs zu erkennen, insbesondere in politischen Zusammenhängen.

Larry Alex Taunton: Der Oxford-Wissenschaftler John Lennox warnt vor dem Aufstieg der KI, 3. Oktober 2023 (56 Min.)

Was ist KI?

Dr. Lennox erläuterte, dass es im Wesentlichen zwei sehr unterschiedliche Bereiche gibt.

Der erste ist die enge künstliche Intelligenz (“KI”). Alle Formen moderner KI-Systeme können als KI im engeren Sinne eingestuft werden. “Das ist die KI, die heute im Einsatz ist und mit der wir sehr vertraut sind”, sagte Dr. Lennox. Die zweite Kategorie ist die künstliche allgemeine Intelligenz (AGI).

“Das Wort ‘eng’ bezieht sich auf die Tatsache, dass das enge KI-System ein System ist, das nur eine einzige Aufgabe erfüllt, die normalerweise menschliche Intelligenz erfordert. Es ist nicht selbst intelligent, es ist einfach ein Computer und eine Datenbank und ein Algorithmus, der bestimmte Dinge aus dieser Datenbank herausfiltert”, sagte er gegenüber Taunton. Und er betonte, dass das Wort “künstlich” in dem Ausdruck “künstliche Intelligenz” real ist. Es handelt sich nicht um echte Intelligenz, sie simuliert nur Intelligenz.

“Das ist sehr wichtig”, sagte Dr. Lennox, “denn das bringt uns zurück zu [Alan] Turing, der einer der Väter dieser Sache ist, und er sprach über ‘The Imitation Game’ – wir imitieren Intelligenz.”

Alan Turings “Imitation Game”, allgemein als “Turing-Test” bekannt, ist für die Wissenschaft der KI von grundlegender Bedeutung. Turing leistete in den 1940er und 1950er Jahren Pionierarbeit beim maschinellen Lernen. Er stellte den Test 1950 in seinem Aufsatz “Computing Machinery and Intelligence” vor, als er an der Universität von Manchester lehrte. In seiner Arbeit schlug Turing eine Abwandlung des so genannten “Imitation Game” vor.

Weitere Lektüre: Turing-Test, Tech Target

AGI ist der Bereich, in dem die Science-Fiction sehr schnell Einzug hält. Dr. Lennox erklärt. “Es ist die Vorstellung, dass wir eine Art von System, ein technologisches System, herstellen können, das alles und mehr kann als eine menschliche Intelligenz. Und damit kommen wir in den Bereich, in dem wir von Superintelligenz und so weiter sprechen.

“Sie versuchen dies auf zwei Arten zu erreichen. Erstens kann man entweder die vorhandene menschliche Intelligenz nehmen und sie auf verschiedene Weise verbessern, z. B. mit Hilfe von Medikamenten oder kybernetischen Technologien, die alle möglichen Dinge in das menschliche Gehirn implantieren. Oder [zweitens] gibt es eine andere Forschungsrichtung, die versucht, eine Art Superintelligenz von Grund auf zu schaffen, weil es in der Biologie das Problem gibt, dass lebende Dinge degenerieren und sterben.”

Moralische und ethische Schwierigkeiten

Wie Dr. Lennox erklärte, haben wir festgestellt, dass es selbst bei der derzeit eingesetzten KI große Vorteile, aber auch Nachteile gibt. Das Negative sind die ethischen und moralischen Probleme.

“Engstirnige KI wird bei der Gesichtserkennung eingesetzt, die ein kriminelles Gesicht in einer Fußballmenge erkennen kann oder zur Unterdrückung einer ethnischen Minderheit in einem Teil der Welt verwendet werden kann”, sagte er.

Desinformation und Beeinflussung von Menschen

Ein weiteres Beispiel für KI im engeren Sinne ist die Textvorhersage auf unseren Telefonen, und die weiterentwickelte Version davon ist ChatGPT.

“Viele Menschen finden [ChatGPT] sehr nützlich, zum Beispiel bei der Recherche zu einem neuen Thema”, sagte Dr. Lennox. Er fügte eine Warnung hinzu, dass man immer überprüfen muss, was ChatGPT produziert, weil es Dinge erfinden und einem Dinge sagen kann, die nicht wahr sind. “Sie müssen es immer überprüfen”, sagte er.

“Das Problem ist, dass es in großem Umfang für die Verbreitung von Desinformationen und die Beeinflussung von Menschen genutzt werden wird, und zwar weit über das hinaus, was sie wissen. Und das liegt daran, dass es nur weiß, was ihm gesagt wird. Damit meint Dr. Lennox, dass es darauf programmiert wurde, auf bestimmte Dinge bestimmte Reaktionen zu geben. “Sie weiß nichts, sie hat keinen Sinn für Wissen, wie wir ihn haben”, sagte er.

KI ist nicht die Entwicklung des Bewusstseins, wie manche Leute vielleicht meinen. “Es gibt ein echtes Problem mit der Sprache”, erklärte Dr. Lennox. “Selbst die Worte ‘künstliche Intelligenz’, ‘Deep Learning’ und all diese Dinge erwecken den Eindruck, dass wir über eine bewusste Entität sprechen, obwohl das nicht der Fall ist.” Er betonte erneut, dass das Wort “künstlich” in “künstliche Intelligenz” echt ist, es ist wirklich künstlich.

Das Sammeln von Informationen

Die primären ethischen Probleme der KI sind unterschiedlich, da KI praktisch jeden Aspekt unseres Lebens betrifft, so Dr. Lennox. Ein ethisches Problem ist das Sammeln unserer Informationen.

Er nannte das Beispiel eines Einkaufs bei Amazon. “Was viele von uns nicht wissen, ist, dass die Informationen, die wir freiwillig geben, gesammelt werden”, sagte er.

In ihrem Buch “The Age of Surveillance Capitalism” (Das Zeitalter des Überwachungskapitalismus) weist Shoshana Zuboff darauf hin, dass es sich hierbei um eine millionen-, wenn nicht gar milliardenschwere Industrie handelt, [wenn] diese Unternehmen, die Informationen sammeln, diese ohne Ihre Zustimmung an Dritte weitergeben”, so Zuboff.

Lesen Sie weiter: Hightech beobachtet Sie, The Harvard Gazette, 4. März 2019

Überwachung

“Dann gibt es noch die ethischen Probleme des so genannten Überwachungskommunismus”, sagte Dr. Lennox.

“Die Art von Dingen, die man bei den Uiguren in China vorfindet, wo Gesichtserkennungstechnologien, die von der Polizei in einigen unserer Länder zu Recht eingesetzt werden, um Kriminelle zu fangen, wofür wir dankbar sind, eingesetzt werden, um ein Überwachungsnetzwerk zu schaffen, auf das George Orwell stolz gewesen wäre – in dem Sinne, dass es wirklich 1984 plus plus plus ist – und die schwächere Bevölkerung ist, [es ist] unglaublich, wie sie unterdrückt wurde und die Informationen hochgeladen werden und so weiter.”

In China dient die Gesichtserkennungstechnologie nicht nur dazu, bestimmte Gesichter zu identifizieren. Die Technologie wird in China eingesetzt, um die uigurische Bevölkerung auszusondern. Sie wurde entwickelt, um Angehörige dieser ethnischen Gruppe oder potenzielle Angehörige dieser Gruppe zu identifizieren. Wenn man also in Peking herumläuft und die Gesichtserkennung jemanden markiert, der ein Uigure sein könnte, wird die Polizei dem nachgehen. Die Polizei wird dem dann nachgehen. Dies ist ein unheilvoller Einsatz von KI und Gesichtserkennung zur Unterdrückung und Tyrannei einer ganzen ethnischen Gruppe, wenn nicht gar der gesamten Bevölkerung.

Aber es geht um mehr als das, so Dr. Lennox. Es wird zur allgemeinen sozialen Kontrolle eingesetzt.

“Die Chinesen haben, soweit ich weiß, ein Sozialkreditsystem. Die Anzahl der CCTV-Kameras in China ist einfach überwältigend – eine für jeden zweiten oder dritten Menschen – und man ist die ganze Zeit auf der Kamera und wird beobachtet. Und wenn sie ein kleines Vergehen sehen – wie das Wegwerfen von Müll auf der Straße oder eine Unterhaltung mit einem Ausländer oder etwas anderes – wird das als Makel gegen dich verwendet, und am Ende summiert sich das – und du kannst feststellen, dass du nicht in dein Lieblingsrestaurant kommst oder keinen Urlaub buchen kannst, kein neues Auto kaufen kannst.”

Lesen Sie weiter:

WhatsApp, warnte Dr. Lennox, ist ein Beispiel für eine Anwendung, die Informationen sammelt. “Sie haben [WhatsApp] … nicht geschaffen, um Ihre Konversation weltweit zu erleichtern, sondern um künstliche Intelligenz zu trainieren und persönliche Daten über Sie zu erfassen.

Wenn ich nichts zu verbergen habe, warum sollte ich mir dann Sorgen machen?

Viele Menschen machen sich keine Sorgen über die schleichende Überwachung und Kontrolle unseres Alltags durch KI. “Das setzt voraus, dass die Menschen, die Sie beobachten, freundlich und wohlwollend sind”, sagte Dr. Lennox. Aber wenn man unter einem totalitären Regime lebt, ist die Situation eine ganz andere.

“Man könnte sagen, dass man nichts zu verbergen hat, weil man moralisch aufrichtig ist, aber was die Prinzipien, Vorschriften und die Ideologie der Regierung betrifft, könnte man eine sehr verdächtige Person sein”, sagte er. “Es ist eine sehr oberflächliche Antwort, zu sagen: ‘Ich habe nichts zu verbergen’.”

Vor nicht allzu langer Zeit diskutierte Dr. Lennox mit einem der führenden Köpfe auf diesem Gebiet über KI. Er schlug Dr. Lennox vor, die Forschung zu pausieren, z. B. ChatGPT5 nicht weiterzuentwickeln, sondern für sechs Monate zu pausieren. Auf die Frage nach dem Grund nannten sie das so genannte “Kontrollproblem”.

“Ich glaube, es war Paula Boddington … [die] eine sehr scharfsinnige Bemerkung machte und sagte: ‘Wissen Sie, das Problem bei der ursprünglichen Schöpfung war, dass Gott die Kontrolle über die Geschöpfe verlor, die er nach seinem Ebenbild geschaffen hatte, und wir sind anfällig dafür, dass wir dasselbe tun’. Und das ist es, was den Menschen Angst macht. Es ist das Problem der Kontrolle. Sie verstehen nicht, zumindest sagen sie, dass sie nicht verstehen, was in der KI vor sich geht, die an ChatGPT4 beteiligt ist”, sagte Dr. Lennox.

Taunton erwähnte, dass er Anfang des Jahres an einem Treffen des Weltwirtschaftsforums teilgenommen und ein Gespräch mit einem der Vortragenden geführt habe. Der Referent, so Taunton, war ein Experte für KI. Er erklärte Taunton, dass die Regierungen zwar ihre Besorgnis über die künstliche Intelligenz zum Ausdruck bringen, in Wirklichkeit aber ihre Besorgnis darüber zum Ausdruck bringen, was andere Regierungen tun, weil sie die künstliche Intelligenz überhaupt nicht bremsen.

Der Moderator fuhr fort, Taunton zu erzählen: “Niemand scheint wirklich zu verstehen, was sie da erschaffen. Die Leute, die dafür bezahlen, die Politiker, die dahinter stehen, sind diejenigen, die am wenigsten verstehen, was künstliche Intelligenz ist.”

“Und dann erzählte er mir”, so Taunton, “von einer Art Terminator-ähnlichem Kriegsroboter, den er mir zu beschreiben begann. Und er sagte: ‘Ich beobachte die Entwicklung dieser Roboter’. Und er sagte: “Wenn diese Dinger dich jagen, dann töten sie dich”. Und er sagte: “Wenn sie auf dich schießen, verfehlen sie dich nie. Und er sagte: ‘Das ist die Zukunft der Kriegsführung, aber er sagt, es ist auch die Zukunft der Überwachung'”.

Denkanstöße zu Yuval Harari

Erstens ist Harari kein Wissenschaftler, sondern ein Historiker. Er beunruhigt mich”, sagte Dr. Lennox, “wegen seines sehr weitreichenden Einflusses. Er ist wirklich ein Beeinflusser … Was er tatsächlich zu sagen hat, beunruhigt mich mehr wegen seiner Ungenauigkeit, und seine Lesart der Geschichte scheint mir sehr seltsam zu sein.”

In Hararis zweitem Buch, ‘Homo Deus: A Brief History of Tomorrow” bezieht sich “Homo Deus” auf “den Gottmenschen” oder “den Menschen, der Gott ist”.

In diesem Buch erklärt Dr. Lennox: “Harari sagt, dass es für das 21. Jahrhundert zwei Hauptaufgaben gibt. Das erste ist die Lösung des technischen Problems des menschlichen Todes. Er betrachtet es als ein technisches Problem und ein technisches Problem mit technischen Lösungen. Und zweitens, das menschliche Glück zu steigern”.

“Die Idee, das Problem des Todes zu lösen, ist sehr alt”, fügte er hinzu.

“Sein Ziel ist es, und das ist mehr oder weniger ein Zitat, ‘den Homo sapiens in einen Homo Deus zu verwandeln’. Mit anderen Worten, Menschen in Götter zu verwandeln.”

“Das ist eine sehr alte Sache. Und als ich das bemerkte, fühlte ich mich gleich in die frühen Kapitel der Genesis [der Bibel] zurückversetzt. Und das ist kulturell enorm wichtig, denn die Idee, dass Menschen zu Göttern werden, hat die Geschichte durchdrungen. Sie war der Grund für viele Diktaturen im alten Babylon, in Syrien, Ägypten und sogar bis in die Neuzeit hinein finden wir Menschen, die im Wesentlichen Gott spielen. Und Harari ermutigt die Menschen zu glauben, dass sie zu Göttern werden können, indem sie einfach ein technisches Problem lösen und sich dann möglicherweise selbst aufwerten.”

“Als Christ habe ich dazu wirklich etwas zu sagen”, sagte Dr. Lennox.

“Wenn die Leute mir das sagen, und das tun sie, dann sage ich: ‘Ihr seid zu spät dran’.

“Und sie sehen mich an und sagen: ‘Was meinen Sie damit, wir sind zu spät? Wir sind doch noch gar nicht so weit.

“‘Oh’, sage ich, ‘Ja, ihr seid noch nicht da, aber ihr seid zu spät’.

“‘Warum bin ich zu spät?

“‘Nun’, sage ich, ‘das Problem des physischen Todes wurde vor 20 Jahrhunderten gelöst, als Jesus Christus durch die Kraft Gottes von den Toten auferweckt wurde. Und was die Steigerung des menschlichen Glücks und das Hochladen in eine höhere Form betrifft, so wurde auch das gelöst, weil” – und das gibt mir eine echte Gelegenheit, das Christentum vor dem Hintergrund der Versprechungen zu erklären, die Transhumanisten wie Harari anbieten – ich sage: “Sehen Sie, es wäre also gut für Sie, auf das Christentum zu hören, das eigentlich viel evidenzbasierter ist als Hararis transhumanistische Versprechungen, wenn es uns sagt, dass jeder, der sich dem Schlamassel stellt, den er aus seinem eigenen Leben und vielleicht dem anderer gemacht hat”.

“Und ich weise einfach darauf hin, dass es keinen Weg nach Utopia gibt, der das Problem des menschlichen moralischen Versagens und der Sünde umgehen kann, und das ist der Fehler, den die meisten Diktatoren gemacht haben. Aber wenn sie bereit sind, das zu bereuen und sich dem zu stellen und Christus als Retter und Herrn zu vertrauen, dann verspricht er ihnen, dass er sie von den Toten auferwecken und in die kommende Welt hinaufführen wird.”

Langfristigkeit ist die gefährlichste Weltanschauung

Dr. Lennox geht in seinem Buch nicht auf die Langfristigkeit ein, aber es ist eine Idee, die ihm Angst macht. Vieles davon geht von der Universität Oxford aus.

In den letzten zwei Jahrzehnten hat eine kleine Gruppe von Theoretikern, die zumeist in Oxford ansässig sind, die Details einer neuen moralischen Weltanschauung, des so genannten “Longtermism“, ausgearbeitet, die betont, wie sich unser Handeln auf die sehr langfristige Zukunft des Universums auswirkt – Tausende, Millionen, Milliarden und sogar Billionen von Jahren in der Zukunft. Der Begriff “Langfristigkeit” wurde etwa 2017 von den Oxford-Philosophen William MacAskill und Toby Ord geprägt. Die Wurzeln des Longtermismus liegen jedoch in der Arbeit von Nick Bostrom, der 2005 das Future of Humanity Institute (“FHI”) mit dem grandiosen Namen gegründet hat, und Nick Beckstead, einem wissenschaftlichen Mitarbeiter des FHI und Programmbeauftragten bei Open Philanthropy.

Lesen Sie weiter: Vier Technokraten verfolgen Projekte, die eine existenzielle Bedrohung für die Welt darstellen. Das Exposé, 3. September 2023

Langfristigkeit ist eines der Hauptanliegen der so genannten “effektiven Altruismus”-Bewegung, die etwa 2011 von Ord eingeführt wurde und sich 2021 mit unglaublichen 46 Milliarden Dollar an zugesagten Mitteln rühmte.

Dr. Lennox fasste die Ideologie des langfristigen Altruismus wie folgt zusammen: “Wir möchten, dass die Welt für unsere Kinder und Enkelkinder ein besserer Ort ist, und das ist der Grundgedanke des Langfristismus. Aber jetzt kommen die Transhumanisten und sagen:

“Wir freuen uns auf den Tag, an dem wir Wesen erschaffen können – möglicherweise Cyborgs, eine Mischung aus menschlichen und mechanisch-technologischen Wesen – und es wird Milliarden und Abermilliarden von ihnen geben. Deshalb sollten wir unseren Reichtum heute nicht in die Lösung der Probleme der Weltarmut investieren, sondern das Geld sollte in die Richtung der intellektuellen und technischen Elite fließen, um diese Milliarden und Abermilliarden von vermeintlichen Individuen zu erhalten, die wir in der Zukunft erschaffen werden”.

“Und das ist natürlich furchtbar.

Was als eine Idee begann, die sehr altruistisch klang und heute unter dem Namen “effektiver Altruismus” läuft, ist zu einem langfristigen Konzept geworden, bei dem einige Leute sagen: “Kümmert euch nicht um die zwei Drittel der Welt und die Armut, investiert das Geld in die Menschen, die in der Lage sein werden, künstliche Intelligenz zu entwickeln, neue Arten von Lebewesen zu entwickeln – es wird so viel mehr davon geben, dass der ganze Rest entbehrlich ist”.

“Nun, das ist absolut entsetzlich. Und doch wird es ernsthaft vorgeschlagen.”

Émile Torres, ein ehemaliger Langzeitforscher, der vor sechs Jahren ein ganzes Buch zur Verteidigung der allgemeinen Idee veröffentlichte, stimmt dem zu. In einem Essay aus dem Jahr 2021 schrieb sie: “Die Langfristigkeit ist vielleicht eine der einflussreichsten Ideologien, von der nur wenige Menschen außerhalb von Eliteuniversitäten und des Silicon Valley je gehört haben. Ich glaube, das muss sich ändern, denn … ich bin zu der Überzeugung gelangt, dass diese Weltanschauung heute möglicherweise das gefährlichste säkulare Glaubenssystem der Welt ist.”