Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Wir schreiben das Jahr 2030, und Roboter haben mehr Rechte als Sie…

Grübeln über unsere Roboter-Overlords und das fehlende Szenario

Jetzt, da ChatGPT die Bühne betreten hat, gibt es einen neuen Hype um die Künstliche Intelligenz (KI). Wann immer KI die öffentliche Fantasie beflügelt, werden wir hemmungslosen Mutmaßungen darüber ausgesetzt, wie sie unweigerlich die Zukunft übernehmen und unser Leben verändern wird.

Wir werden zu der Annahme verleitet, dass KI eine Ära hyperintelligenter Herren einleiten wird, die so weit über unsere eigenen groben und analogen kognitiven Fähigkeiten hinausgehen, dass sich die existenzielle Frage der Zukunft darum drehen wird:

  • Wie viel Macht oder Rechte räumen wir diesen Wesen ein?
  • Werden sie sich uns gegenüber wohlwollend oder böswillig verhalten?

Aber diese Fragen setzen eine Grundannahme im Zusammenhang mit KI voraus, die nach allgemeiner Auffassung heute nicht zutrifft, aber in der Zukunft – nach einigen weiteren Iterationen des Mooreschen Gesetzes – unweigerlich zutreffen wird…

Das ist die Vorstellung, dass KI eine allgemeine künstliche Intelligenz erreichen wird, und das setzt ein gewisses Maß an Empfindungsvermögen voraus (andernfalls gibt es nichts, dem man Rechte geben könnte).

Der Newsweek-Artikel rechts in den Bildern oben stammt von dem transhumanistischen Futuristen Zoltan Istvan. Er beschreibt, wie KI-Ethiker in der Frage, ob zukünftigen hyperintelligenten Robotern Rechte zugestanden werden sollten, geteilter Meinung sind.

Einerseits begehen wir einen “Bürgerrechtsfehler”, den wir in der Zukunft bereuen werden, wenn wir Robotern mit AGI (allgemeine Intelligenz auf Augenhöhe mit Menschen) keine Menschenrechte zugestehen.

Dem widersprechen diejenigen, die behaupten, dass Roboter Maschinen sind und niemals Rechte brauchen werden, weil sie keine Gefühle haben (hier lande ich, und ich werde Ihnen weiter unten erklären, warum).

Andere glauben an einen Mittelweg, bei dem einigen Robotern, die über eine allgemeine Intelligenz verfügen, je nach ihren “Fähigkeiten, ihrem moralischen System und ihrem Beitrag zur Gesellschaft” gewisse Rechte zugestanden werden (was mich ein wenig an eine Drei-Fünftel-Klausel erinnert).

Aber insgesamt scheint Istvar davon auszugehen, dass die KI eine Superintelligenz erreichen und uns unbeholfenen Fleischsäcken der Menschheit in Bezug auf die Gehirnleistung weit überlegen sein wird.

Damit bleiben uns drei mögliche Wege in die Zukunft:

#1 Appell an das Wohlwollen der KI-Superintelligenz

“Angesichts der Möglichkeit von Belohnung oder Bestrafung, wenn maschinelle Intelligenz schließlich so etwas wie ein KI-Gott wird, der das menschliche Leben in hohem Maße zum Guten oder zum Schlechten manipulieren und verlängern kann, dann sollten die Menschen sofort damit beginnen, darüber nachzudenken, wie unser zukünftiger Oberherr ins Leben gerufen und behandelt werden möchte. Die Art und Weise, wie die Menschen heute mit der Entwicklung der KI umgehen – und ob wir den Robotern in naher Zukunft Rechte und Respekt gewähren – könnte daher den Unterschied ausmachen, wie unsere Spezies eines Tages behandelt wird.”

Dies ist eine Abwandlung von Pascals Wette – einem prototypischen Konstrukt der Spieltheorie, das zu dem Schluss kommt, dass die Folgen des Glaubens an Gott und des Irrtums (Nichts) besser sind als der Irrtum, nicht zu glauben (ewige Verdammnis).

#2 Hopium. Vielleicht lassen uns die KIs einfach in Ruhe

Laut Istvan könnten wir jedoch “angesichts unseres Einflusses und der Umweltzerstörung, die wir auf dem Planeten Erde verursachen”, “leicht die KI verärgern”, die die Dinge selbst in die Hand nehmen wird, um die Dinge und uns zu korrigieren. Das letztgenannte Szenario ist eine Variante von Rokos Basilisk, der ebenfalls in Istvans Beitrag erwähnt wird.

Rokos Basilisk war ein Gedankenexperiment des Programmierers Eliezer S. Yudkowsky auf LessWrong, das die Website in ihren Grundfesten erschütterte und ansonsten superhirnigen Nerds einen gehörigen Schrecken einjagte.

Es ist “das schrecklichste Gedankenexperiment aller Zeiten”, schwärmt das Slate-Magazin.

Sie prägt Yudkowskys Denken bis heute. Kürzlich hat er das “Ausrichtungsproblem” verkündet, das davon ausgeht, dass die Menschheit unweigerlich superintelligente KIs erschaffen wird und diese uns unweigerlich vernichten werden. Wir können genauso gut “in Würde sterben”, da wir ohnehin alle dem Untergang geweiht sind:

“tl;dr: Es ist offensichtlich, dass die Menschheit das Ausrichtungsproblem nicht lösen wird, es nicht einmal versuchen wird und auch nicht kampflos aufgeben wird. Da das Überleben unerreichbar ist, sollten wir den Schwerpunkt unserer Bemühungen darauf verlagern, der Menschheit zu helfen, mit etwas mehr Würde zu sterben.”

Diese Art von Gedankenkonstrukten rund um die Unausweichlichkeit allmächtiger KIs sind einfach Wiederholungen des ontologischen Arguments von St. Anselm. Zuerst formuliert von St. Anselm von Canterbury im 11. Jahrhundert. Obwohl es eine beeindruckende logische Leistung ist, die Zenos Paradoxien ähnelt, ist es einfach ein Zirkelschluss, dass Gott existieren muss:

“Gott ist das größtmögliche Wesen, das man sich vorstellen kann. Wenn ein solches Wesen nur in der Vorstellung und nicht in der Wirklichkeit existiert, dann kann man sich ein größeres Wesen vorstellen – eines, das sowohl in der Vorstellung als auch in der Wirklichkeit existiert.”

Vereinfacht ausgedrückt:

Gott ist das vollkommenste Wesen, das wir uns vorstellen können, und es ist vollkommener, in der Realität zu existieren als nur in unserer Vorstellung. Daher muss Gott in der Realität existieren.

via ChatGBT Sitzung 72b43f3e-043f-4db2-aca9-63a76b7945c9

Gib Gott eine böse Ader, und du hast Rokos Basilisk. Oder Skynet.

#3 Unser Bewusstsein in die Cloud hochladen und mit den Robotern verschmelzen

Hier schlägt Istvan vor, dass wir mit der KI verschmelzen und versuchen, sie zu lenken

Eine letzte Möglichkeit besteht darin, dass wir versuchen, mit der frühen KI zu verschmelzen, indem wir unseren Verstand in sie hochladen, wie Elon Musk vorgeschlagen hat. Die Hoffnung ist, dass die Menschen mit der KI eins werden und sie dazu bringen können, freundlich zu den Menschen zu sein, bevor sie zu mächtig wird. Es gibt jedoch keine Garantie dafür, dass wir erfolgreich sein werden, und auf lange Sicht könnte sich die KI dadurch nur vergewaltigt fühlen.

Diese Idee wird Elon Musk zugeschrieben, obwohl ich sicher bin, dass Istvan sich bewusst ist, dass dies die Essenz der Singularität ist, die von Leuten wie Ray Kurweil (Googles Chief Scientist) in seinem Buch The Singularity is Near propagiert wird. Die russischen Kosmologen versuchten bereits vor über einem Jahrhundert, dasselbe zu formulieren, aber damals gab es noch keine Computernetzwerke und maschinelles Lernen, die als Grundlage dienten.

Vor Jahren sollte ich ein Buch über die Gefahren dieses Techno-Utopismus schreiben, und darin nenne ich die Vorstellung, dass die Menschheit mit der KI verschmelzen und all unsere Übel auslöschen wird, “Die falsche Schwelle”:

Möglich wird all dies durch den positiven Kreislauf, der durch digitale Computernetzwerke entsteht, die, angetrieben durch das Mooresche Gesetz, ihren physischen Platzbedarf unaufhörlich halbieren und gleichzeitig ihre Verarbeitungsleistung verdoppeln – schließlich würden wir die Vernetzung und die Verarbeitungsleistung des menschlichen Gehirns selbst erreichen und dann übertreffen.

Wenn das passiert, sind alle Wetten ungültig. Man geht davon aus, dass irgendwo auf diesem Kontinuum, wenn die richtigen Schwellenwerte für Parallelität und Rechenleistung überschritten sind, der Verstand selbst aus dem Prozess herausspringt – er taucht mit Macht auf und faltet sich in sich selbst zurück, spaltet Teilprozesse ab, die noch intelligenter sind als er selbst, und so weiter, ad infinitum. Unsere “letzte Erfindung” wird dann die Welt mit all ihren Unzulänglichkeiten und Ineffizienzen überblicken und, da sie unendlich viel intelligenter ist als alle menschlichen Gehirne zusammen, alles geschickt lösen.

Laut Kurzweil könnte dies bereits 2029 der Fall sein, und diese techno-utopischen Visionen münden fast immer in eine Art Neomarxismus, der auf einem vollautomatischen Luxuskommunismus basiert.

Die Singularität als Entrückung

Die Erwartung, dass superintelligente KI unsere Angelegenheiten übernimmt (Techno-Utopismus), hat die Züge einer Religion. Ursprünglich schrieb ich darüber in Transhumanism: The New Religion of The Coming Technocracy als Antwort auf einen WSJ-“Denkanstoß” (Looking Forward to the End of Humanity) geschrieben, dass “Covid-19 die Verheißungen des Transhumanismus und die Idee, Technologie zur Überwindung von Krankheit, Alterung und Tod zu nutzen, in den Mittelpunkt gestellt hat”.

Täuschen Sie sich nicht: Die Singularität hat alle Merkmale eines eschatologischen Ereignisses. Sie unterscheidet sich von den meisten christlichen oder monotheistischen Impulsen, weil wir es sind, die unsere eigenen Götter gebären. Diese Dynamik der Usurpation (Gottes oder in diesem Fall der Realität selbst) verleiht ihr einen eindeutig luziferischen Impuls.

Das fehlende Szenario ist, dass KI niemals eintreten wird

Ein Szenario, das dieser Artikel nicht in Betracht zieht (und auch kein anderer, der sich mit der Zukunft der KI beschäftigt), ist, dass es KI gar nicht gibt und der Glaube, dass empfindungsfähige, selbstbewusste KI die Welt übernehmen wird, niemals eintreten wird.

(Am Rande sei bemerkt, dass es eine ganz andere Frage ist, ob die Mehrheit der Bevölkerung zu algorithmischen Leibeigenen wird, die unter Sozialkrediten und CBDCs leben).

Unser Händeringen darüber, wie wir mit diesen superintelligenten Softwarekonstrukten umgehen sollen, beruht auf einer einzigen, feststehenden Annahme, die nicht beweisbar ist:

Das ist die Vorstellung, dass der Geist ein Epiphänomen der Materie ist.

Der Kerngedanke des Scientismus (wohlgemerkt, ich habe nicht “Wissenschaft” gesagt) ist, dass Bewusstsein, Empfindungsvermögen und Geist allesamt Nebenprodukte der Materie sind. Etwas, das passiert, wenn bestimmte Neurochemikalien in einem Gehirn herumschwappen und genügend Synapsen feuern und verkabeln, um ein Selbstbewusstsein zu erzeugen.

Dies ist das moderne Äquivalent des ptolemäischen (oder geozentrischen) Universums: der Glaube, dass die Erde das Zentrum des Kosmos ist.

Sie war die “anerkannte Wissenschaft” ihrer Zeit, und wenn man sie bestritt, wurde man auf dem Scheiterhaufen verbrannt.

Die Realität ist, dass die Materie ein Nebenprodukt des Bewusstseins ist, die Basisschicht der Realität ist mental, nicht physisch. Dies wird schon seit langem behauptet (das hermetische Axiom “Alles ist mental”, das von weit älteren Texten abgekupfert wurde) und wurde erst im letzten Jahrhundert mit dem Aufkommen der Quantenmechanik wiederentdeckt.

“Ich betrachte das Bewusstsein als grundlegend. Ich betrachte die Materie als vom Bewusstsein abgeleitet. Wir können nicht hinter das Bewusstsein kommen. Alles, worüber wir sprechen, alles, was wir als existierend betrachten, setzt Bewusstsein voraus.”

Max Planck

So gesehen strahlt unser Gehirn das Bewusstsein nicht aus, wie ein Wasserkocher Dampf ablässt – es ist ein Empfänger, der das zugrunde liegende Substrat der Realität anzapft und filtert. Und obwohl die Grundlagen der Quantenmechanik das Primat des Bewusstseins verdeutlichen, kann es nur durch Gnosis wirklich erfahren werden. Für diejenigen, die diese Erfahrung gemacht haben, gibt es keinen Zweifel. Für alle anderen gibt es nur New-Age-Woo-Woo.

Solange KI nicht mit diesem Verständnis angegangen wird (und ich habe nicht die Erwartung, dass irgendjemand dies jemals ernst nehmen wird), können wir mit Sicherheit davon ausgehen, dass eine verallgemeinerte KI, die empfindungsfähig und selbstbewusst ist, einfach nicht zustande kommen wird.

Zeit für einen Realitäts-Check

Die künstliche Intelligenz ist eigentlich die aktuelle Version des “fliegenden Autos”. Etwas, das als Symbol für die Zukunft verwendet wurde, die nie stattgefunden hat. Zumindest nicht in der klischeehaften Form. Das liegt daran, dass KI nicht wirklich künstliche Intelligenz ist, sondern eine algorithmische Nachahmung.

Sie mag zwar sehr, sehr gut darin sein, Buchhalter, Anwälte, Ärzte, Programmierer, Werbetexter und sogar Schachgroßmeister oder Go-Champions algorithmisch zu imitieren, aber sie ist immer noch nicht empfindungsfähig, sie hat immer noch kein Verständnis dafür, was sie eigentlich tut, sie hat kein Bewusstsein. Er könnte genauso gut ein Toaster sein.

Deshalb ist es nicht nur wahnhaft, sondern auch verrückt, wenn wir uns mit im Grunde theologischen Konstruktionen über Ergebnisse quälen, denen wir eine falsche Unvermeidlichkeit zuschreiben.

Der Fehler wird noch größer, wenn wir die öffentliche Politik auf der Grundlage dieser Annahmen gestalten.

Eine ganz ähnliche Dynamik spielt sich bei der Darstellung der “Klimakrise” ab, bei der wir mit hypothetischen Konstrukten aus Computermodellen überschüttet werden, denen eine Unvermeidbarkeit zugeschrieben wird, die es erforderlich macht, dass sich die gesamte Menschheit um sie herum neu ordnet. Die vorgeschlagenen “Neukonfigurationen” oder “Neukalibrierungen” der Gesellschaft (um einen Euphemismus im Stil des WEF zu verwenden) folgen ausnahmslos neomarxistischen, technokratischen Linien.

Das Wichtigste zuerst: Holen wir uns sofort unsere eigenen Rechte zurück

Die Ironie bei dieser ganzen Selbstbetrachtung darüber, wie wir KIs behandeln und welche Rechte sie haben sollten, ist, dass hier in der Covid-Ära gerade unsere eigenen grundlegenden Menschenrechte außer Kraft gesetzt worden sind. Per Erlass.

Wir haben sie nach dem Ende der Pandemie nicht wiedererhalten, da die meisten Notstandsmandate nur bedingt “auf Eis gelegt” sind. Unsere bürgerlichen und universellen Menschenrechte sind nun auf Geheiß verschiedener nicht gewählter Gesundheitsbehörden, Bürokraten, Apparatschiks und jeglichem Irrsinn, der aus Davos kommt, vorläufig.

Wenn wir es zulassen, wird dies nur noch schlimmer werden, wenn sich der “Klimanotstand” am Horizont abzeichnet und wir mit der realen Aussicht auf Klimasperren und Sozialkredite auf der Grundlage von CBDCs, Gesundheitspässen und Kohlenstoffrationierung konfrontiert werden.

Wir haben unsere eigenen Rechte in der Gegenwart außer Kraft gesetzt und streiten dann darüber, welche Rechte wir den leblosen Software-Algorithmen der Zukunft einräumen sollen.

Mein Buch zu diesem Thema ist auf Eis gelegt, aber ich schreibe immer noch über Transhumanismus, KI und ihre Auswirkungen auf CBDCs, Kohlenstoffrationierung und Sozialkredite. Tragen Sie sich in die Bombthrower-Mailingliste ein, um neue Artikel zu erhalten (und vielleicht nehme ich das Buch wieder auf und schreibe es hier fort). Sie können mir auch auf Nostr , Gettr, oder Twitter folgen. Mein Premiumbrief The Bitcoin Capitalist behandelt Bitcoin und Kryptoaktien.