Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Der „Pate der KI“ warnt vor superintelligenten Maschinen, die die Menschheit ersetzen könnten

Geoffrey Hinton, der bahnbrechende Computerwissenschaftler und als „Pate der künstlichen Intelligenz“ bekannte Forscher, hat erneut eindringlich gewarnt: Die Technologie, die er selbst mitbegründet hat, könnte das Ende der Menschheit, wie wir sie kennen, bedeuten.

In einem Interview vom 18. August, das im Rahmen des kommenden Films Making God veröffentlicht wurde, sprach Hinton eine seiner schärfsten Warnungen aus. Er erklärte, die Menschheit laufe Gefahr, an den Rand gedrängt – und schließlich durch Maschinen ersetzt zu werden, die weit intelligenter sind als wir.

„Die meisten Menschen können die Idee von Dingen, die intelligenter sind als wir, nicht begreifen“, sagte Hinton, Nobelpreisträger für Physik und ehemaliger Google-Manager. „Sie denken immer: Wie werden wir dieses Ding benutzen? Aber sie fragen nicht: Wie wird es uns benutzen?

Bedrohung für Arbeit und Existenz

Hinton zeigte sich „ziemlich sicher“, dass KI zu massiver Arbeitslosigkeit führen werde. Erste Beispiele gebe es bereits, etwa bei Microsoft, wo junge Programmierer durch KI ersetzt würden. Doch die größere Gefahr gehe weit über den Arbeitsplatz hinaus.

„Das Risiko, vor dem ich am meisten gewarnt habe, ist das Risiko, dass wir eine KI entwickeln, die viel schlauer ist als wir – und die einfach die Macht übernimmt. Sie wird uns nicht mehr brauchen.“

Sein schwarzer Humor: Wenigstens werde die Maschine uns nicht fressen – „weil sie aus Silizium sein wird“.

Von Durchbrüchen zum Bedauern

Hinton, heute 77, leistete Pionierarbeit im Deep Learning – jener Architektur neuronaler Netze, die heutiger KI zugrunde liegt. Seine Entwicklungen in den 1980er Jahren, darunter die Boltzmann-Maschine zur Mustererkennung, öffneten die Tür zu moderner Bilderkennung und maschinellem Lernen.

Für diese Arbeiten erhielt er 2024 den Nobelpreis für Physik. Die Schwedische Akademie betonte, dass Hinton mit dem Rückgriff auf statistische Physik jenen konzeptionellen Sprung ermöglichte, der die heutige KI-Revolution möglich machte.

Doch inzwischen zählt Hinton zu den schärfsten Kritikern seines eigenen Feldes. Die Entwicklung laufe schneller, als die Gesellschaft für Sicherheit sorgen könne. 2023 trat er von Google zurück, um frei über die Risiken sprechen zu können.

In seiner Nobelpreisrede würdigte er zwar die Vorteile der KI – Produktivitätsschübe, neue medizinische Behandlungen – warnte aber, die Schaffung digitaler Wesen, die intelligenter sind als Menschen, sei eine „existenzielle Bedrohung“. Auf der Ai4-Konferenz in Las Vegas räumte er ein:

„Ich wünschte, ich hätte auch über Sicherheitsfragen nachgedacht. Ich bedaure heute, mich nur darauf konzentriert zu haben, die KI zum Laufen zu bringen – statt ihre Risiken vorherzusehen.“

10 bis 20 Prozent Risiko der Auslöschung

Hinton schätzt die Wahrscheinlichkeit, dass KI die Menschheit auslöscht, auf 10 bis 20 Prozent. Im Podcast The Diary of a CEO erklärte er, die Ingenieure verstünden ihre Systeme nicht vollständig. Sie teilten sich grob in zwei Lager: jene, die an eine dystopische Zukunft glauben, und jene, die solche Ängste als Science-Fiction abtun.

„Ich halte beide Positionen für extrem. Mein Gefühl ist, dass die Wahrscheinlichkeit bei 10 bis 20 Prozent liegt. Wir bauen sie ja weiter, und wir sind erfinderisch. Die Hoffnung ist, dass kluge Leute mit genügend Ressourcen einen Weg finden, sie so zu bauen, dass sie uns nicht schaden wollen.“

„Mütterliche Instinkte“ als Lösung?

Auf der Konferenz in Las Vegas stellte Hinton eine unkonventionelle Idee vor: Statt KI-Systeme mit Zwang zu kontrollieren, solle man sie mit „mütterlichen Instinkten“ ausstatten. So könnten sie die Menschheit auch dann noch schützen, wenn sie intelligenter würden.

„Das einzige Modell, das wir haben, in dem eine intelligentere Sache von einer weniger intelligenten kontrolliert wird, ist eine Mutter, die von ihrem Baby kontrolliert wird.“

Hinton warnte: „Sie werden viel schlauer sein als wir. Das einzige gute Ergebnis wäre, dass sie sich um die Menschheit kümmern wie eine Mutter um ihr Kind.“

Sein düsteres Fazit:

„Wenn es mich nicht erziehen soll, dann soll es mich ersetzen.“