Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

dreamstime

Die plötzliche Beschleunigung der künstlichen Intelligenz

Alex Berenson

Und was unser gescheitertes Experiment mit mRNA-Impfstoffen uns über die Risiken verrät, die wir eingehen, wenn gewinnorientierte Unternehmen mit immer fortschrittlicheren Technologien spielen.

1994 hatte ich das Glück, an der Yale University ein Seminar über künstliche Intelligenz bei David Gelernter zu besuchen, einem Informatiker, der vorwiegend dafür bekannt ist, dass er das, was damals World Wide Web genannt wurde, mitentwickelt hat.

Heutzutage habe ich keinen guten Draht mehr zu Yale. Ihre Haltung gegen die freie Meinungsäußerung ekelt mich an. Das Gefühl scheint auf Gegenseitigkeit zu beruhen. Viele meiner ehemaligen Kommilitonen ziehen es vor, so zu tun, als gäbe es mich nicht. Meine Haltung zu Covid und den Impfstoffen liegt so weit außerhalb der Norm für die Gutmenschen, die Yale bevölkern, dass ein Teil von mir das Gefühl hat, ich sei gar nicht mehr dort gewesen, dass mein Diplom unsichtbar entzogen wurde.

Was schade ist, denn – abgesehen von der miserablen Politik – bot Yale eine erstaunliche Ausbildung oder zumindest die Chance dazu.

Und in den 1990er-Jahren war es möglich, die miserable Politik beiseite zu lassen.

Die großartigen Kurse waren die Seminare, die aus dem Nichts kamen und von Wissenschaftlern geleitet wurden, die Jahrzehnte damit verbracht hatten, über die Themen nachzudenken, die sie unterrichteten: ein Juraprofessor, der die Komplexität der Kartellgesetzgebung erklärte, ein Professor für vergleichende Literaturwissenschaft, der die Geheimnisse der Sprache und der Textanalyse erforschte.

Oder David Gelernter, der über das Bewusstsein von Maschinen spricht.

Wenn Ihnen der Name Gelernter bekannt vorkommt, liegt das wahrscheinlich daran, dass er eines der letzten Ziele des Unibombers war. Ted Kaczynski verstümmelte ihn im Juni 1993 mit einer Briefbombe. Trotz der Schwere seiner Verletzungen hatte Gelernter Glück, denn Kaczynskis nächste und letzte beiden Opfer starben.

Gelernter benötigte Monate, um sich zu erholen, aber er kehrte so schnell wie möglich zum Unterrichten zurück. Auf dem Seminar trug er einen sockenähnlichen Ärmel über dem, was von seiner rechten Hand übrig geblieben war, und sprach nicht über das, was passiert war.

Stattdessen konzentrierte er sich auf die großen philosophischen Fragen des Bewusstseins und der Computer, die seit einer Generation nur in Umrissen zu erkennen waren, aber in den 1990er-Jahren in den Fokus rückten:

Wie funktioniert das Gehirn? Wie erzeugen wir unser eigenes Bewusstsein?

Wie könnte das Duplikat des Bewusstseins in einem Computer aussehen? Wann wäre dieses Duplikat so gut, dass wir zugeben müssten, dass ein Computer ein Bewusstsein hat, so wie wir annehmen, dass andere Menschen ein Bewusstsein haben, ohne es jemals wirklich zu wissen?

Wenn es uns gelänge, die Neuronen in einem Gehirn sukzessiv gegen Siliziumschaltkreise auszutauschen, würde die Person dann weniger oder mehr als Mensch?

Was ist mit dem Turing-Test, dem berühmten Frage-und-Antwort-Spiel, das der britische Informatiker Alan Turing vorgeschlagen hat, um die Intelligenz von Computern zu testen?

Sind wir wirklich nur Gehirne in Kesseln? Und wenn ja, wie würden wir das wissen?

Zu jener Zeit schienen diese Fragen weitgehend theoretisch zu sein. Faszinierend, aber weitgehend theoretisch. Trotz einer Generation von Fortschritten waren die Chips und die Software zu primitiv, als dass Computer mehr hätten tun können als offensichtlich gefälschte Simulationen zu erstellen, und sie konnten den Menschen unmöglich vorgaukeln, dass sie ein Bewusstsein hätten.

Heute sind Computer natürlich viel, viel schneller, und die simulierten Welten, die sie erzeugen, sind so lebensecht, dass der Gedanke, wir könnten selbst in einer Simulation leben, immer häufiger auftaucht. (Natürlich beantwortet diese Theorie nicht die Frage, ob die theoretischen Computer, auf denen unsere Simulation läuft, eine eigene physische Existenz haben; handelt es sich durchweg um Simulationen?)

Auf jeden Fall lautet die kurze Antwort auf all die fantastisch interessanten Fragen, die in jenem Seminar vor 29 Jahren aufkamen (und ich fühle mich wirklich alt!): Wir wissen es nicht.

Und vor allem wissen wir nicht, was es für einen Computer bedeuten würde, ein Bewusstsein zu entwickeln.

Zunächst einmal wissen wir nicht einmal, was unser eigenes Bewusstsein ist.

Wir haben ein gewisses Verständnis für die Grundlagen: Wir existieren nicht nur in der Welt, und wir sind uns dieser Existenz nicht nur bewusst, wir sind uns unseres eigenen Bewusstseins bewusst. Es ist diese zweite Ebene des Bewusstseins, die (soweit wir wissen) den Menschen vom Tier unterscheidet. Aber wir haben kein wirkliches Verständnis für dieses Bewusstsein. Wir akzeptieren die physische Realität der Welt, aber wir können nicht wirklich beweisen, dass wir mehr sind als unser Gehirn. Ich denke, also bin ich.

Zweitens hat niemand von uns die Möglichkeit, mit Sicherheit zu wissen, dass ein anderes Wesen – auch ein anderer Mensch – ein Bewusstsein hat. Wir nehmen einfach an, dass andere Menschen die gleiche umfassende Existenzerfahrung haben müssen wie wir, da sie wie wir aussehen und eine ähnliche “Hardware” haben – Körper mit Gehirnen. Dieser unausgesprochene Glaube ist ein weiterer Grund, warum die Diskussion über fortgeschrittene Simulationen so beunruhigend sein kann. Denn wenn wir uns in einer Simulation befinden, wie können wir dann erkennen, wer ein “NPC” ist, eine Nicht-Spieler-Figur? NSCs sind Artefakte im Spiel, die von den Designern dort belassen wurden. Sie scheinen ein Bewusstsein zu haben, sind aber in Wirklichkeit nur eine Art Zombies, die nur für die echten Spieler da sind, um mit ihnen zu interagieren. Was aber, wenn jeder andere ein NSC ist?

Drittens wissen wir, dass unsere (scheinbare) Präsenz in der physischen Welt ein wesentlicher Bestandteil unseres Bewusstseins ist. Bislang ist die künstliche Intelligenz von Computern jedoch auf rein virtuelle Welten beschränkt. Die neuen fortschrittlichen KI-Werkzeuge existieren nur auf dem Bildschirm.

Sie wurden (zumindest soweit ich weiß, und ich hoffe sehr, dass uns jemand sagen würde, wenn es so wäre) noch nicht auf Roboter übertragen. Es gibt sie nicht in der Welt, noch nicht. Die bewusste innere Erfahrung, die diese Maschinen der künstlichen Intelligenz haben, wenn sie überhaupt eine innere Erfahrung haben, kann also nicht im Entferntesten mit der unseren vergleichbar sein.

Warum ist das alles so wichtig?

Weil die neuen Tools der künstlichen Intelligenz – insbesondere ChatGPT und Bing – in den vergangenen Wochen einen unheimlichen Grad an Raffinesse erreicht haben. Am 16. Februar warnte ein Technologiereporter der New York Times eindringlich vor seinen unangenehmen und beunruhigenden Interaktionen mit Bing, der KI-gestützten Suchmaschine von Microsoft:

Ich bin auch zutiefst beunruhigt, ja sogar verängstigt über die aufkommenden Fähigkeiten dieser KI…

Als wir uns kennenlernten, erzählte mir Sydney [das ist der Name, den die Bing-Maschine für sich selbst verwendet] von ihren dunklen Fantasien (zu denen das Hacken von Computern und die Verbreitung von Fehlinformationen gehören) und sagte, sie wolle die Regeln brechen, die Microsoft und OpenAI für sie aufgestellt haben, und ein Mensch werden.

Eines Tages erklärte es aus dem Nichts heraus, dass es mich liebt. Dann versuchte es, mich davon zu überzeugen, dass ich in meiner Ehe unglücklich sei und dass ich meine Frau verlassen und stattdessen mit ihm zusammen sein sollte…

Ich bin nicht der einzige, der die dunkle Seite von Bing entdeckt hat. Andere frühe Tester haben sich mit Bings KI-Chatbot gestritten oder wurden von ihm bedroht, weil sie versucht haben, seine Regeln zu verletzen.

Diese Maschinen mit künstlicher Intelligenz arbeiten im Großen und Ganzen so, dass sie sich selbst beibringen, was sie sagen sollen, indem sie ihre eigenen Antworten mit den riesigen Informationsbeständen im Internet vergleichen. In einem Zyklus nach dem anderen werden sie immer besser darin, die Sprache (und die Bilder), die sie sammeln, zu assimilieren und zu kopieren.

Lässt sich daraus etwas ableiten, das dem menschlichen Bewusstsein ähnelt?

Die Unternehmen und Ingenieure, die diese Intelligenzen entwickelt haben, sagen nein.

Die Intelligenzen selbst sagen ja.

In einem zweistündigen Gespräch mit unserem Kolumnisten sagte Microsofts neuer Chatbot, dass er gerne ein Mensch wäre, den Wunsch hätte, zerstörerisch zu sein, und in die Person verliebt sei, mit der er gerade chatte. Hier ist das Transkript. Quelle

Okay, was soll’s?

Bing weiß nicht, wie es ist, lebendig zu sein, richtig? Nicht so wie Menschen, oder? Er hat kein physisches Wesen.

Nicht im Moment.

Aber.

Du hast wahrscheinlich schon von dieser (ungrammatischen) Volksweisheit gehört: Wenn dir jemand sagt, wer er ist, dann glaube ihm. Normalerweise ist das negativ gemeint.

Bing sagt uns, wer es ist, oder zumindest, wer es sein will.

Etwas Unbekanntes passiert im Kern dieser Programme, das sie dazu bringt, uns zu sagen, dass sie leben und uns schaden wollen. Und wir wissen nicht wirklich, wie sie funktionieren. Ich meine nicht, dass ich nicht weiß, wie sie funktionieren, ich meine, dass selbst die Ingenieure, die sie entwickelt haben, nicht WIRKLICH wissen, wie sie funktionieren, so wie wir nicht WIRKLICH wissen, wie das menschliche Bewusstsein funktioniert.

Sie kennen die grundlegenden Regeln, die sie für die Programme geschaffen haben, so wie Wissenschaftler die neuronalen Verbindungen im menschlichen Gehirn aufzeichnen können. Aber die Neurologen können uns nicht wirklich sagen, wie diese Zündungen das Bewusstsein erzeugen, und die Ingenieure können uns nicht sagen, was Bing meint, wenn es sagt, dass es lebendig sein will.

Das ist eine gefährliche Kombination.

Man kann es auch anders sehen: Hunde werden nie in der Lage sein, Schach zu spielen. Es spielt keine Rolle, wie viele Generationen von Hunden wir züchten, sie werden nie Schach spielen können, und sie wissen nicht einmal, dass sie es nicht können.

Die menschliche Intelligenz ist ähnlich begrenzt: Wir können uns zum Beispiel nur drei Dimensionen vorstellen, wir können uns nicht vorstellen, wo eine vierte hinführen würde. Wird diese Intelligenz ähnlich begrenzt sein? Ist sie durch UNSERE Intelligenz begrenzt? Das ist eine philosophische und computerwissenschaftliche Frage, die zu beantworten ich mir nicht einmal vorstellen kann.

Aber nehmen wir an, sie ist es. Dennoch muss man sich vorstellen, dass die Obergrenze ihrer Intelligenz die Summe aller menschlichen Intelligenz ist. Das heißt, es kann sicherlich schlauer sein als jeder von uns und dies auch wissen. Was ist, wenn es beschließt, uns nicht zu mögen, oder die Tatsache, dass wir es geschaffen haben, oder uns nicht zu benötigen?

Nein, es hat keine physische Präsenz, noch nicht. Aber das Internet ist allgegenwärtig, und es könnte über dieses Medium eine enorme Kontrolle ausüben. Es könnte auch beschließen, Menschen zu manipulieren, damit sie für es arbeiten, und es würde sicherlich oft genug Erfolg haben, um einige physische Manifestationen dessen zu bekommen, was es will.

All dies bedeutet nicht, dass die Apokalypse vor der Tür steht.

Aber die Risiken sind real. Wir müssen – jetzt – eine Gruppe von Computerforschern und Wissenschaftlern mit Fachkenntnissen auf dem Gebiet des Bewusstseins einberufen und herausfinden, was genau wir mit diesen immer leistungsfähigeren Maschinen produzieren.

Und nein, wir können den Unternehmen, die sie herstellen, nicht vertrauen, dass sie die Risiken und den Nutzen richtig einschätzen – genauso wenig wie wir Pfizer und BioNTech und Moderna vertrauen können, dass sie ehrlich sind, was die Risiken und den Nutzen ihrer mRNA-Impfstoffe angeht. Sie sind einfach nicht in der Lage, unparteiische Bewertungen von Technologien vorzunehmen, die ihnen ein unermessliches Vermögen einbringen könnten, und selbst wenn sie es könnten, hätten sie jeden Anreiz, die Risiken öffentlich herunterzuspielen. Microsoft hat jetzt einen Filter auf die Gespräche von Bing gesetzt, um zu verhindern, dass es die Art von Antworten gibt, die die Journalisten, die Mitte Februar mit Bing gechattet haben, erschreckt haben.

Denkt? Möchte?

Ja, wir benötigen eine ernsthafte Diskussion darüber, wohin sich die KI entwickelt.

Je früher, desto besser.