Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

pexels.com

Künstliche Intelligenz könnte die genialste Erfindung der Menschheit sein – und ihre letzte?

Von Nick Bilton

Das Silicon Valley arbeitet mit Hochdruck an einer KI-Technologie, die neue Formen der Kreativität, Kunst und Medizin hervorbringen und möglicherweise die gesamte Menschheit auslöschen könnte. Wie ein KI-Ingenieur warnt: “Wir erschaffen Gott”.

Wir haben Räder und Kompasse und Schokoladenteig-Eiscreme und den Eames Lounge Chair und Penicillin und e = mc2 und Bier in Sixpacks und Pistolen und Dildos und den Pet Rock und Doggles (Brillen für Hunde) und quadratische Wassermelonen erfunden. “Ein kleiner Schritt für den Menschen.” Wir haben den Lindy Hop erfunden und musikalische Zahnbürsten und Senfgas und im Dunkeln leuchtende Pflaster und Papier und das Mikroskop und Speck – verdammter Speck – und Weihnachten. “Ma-ma-se, ma-ma-sa, ma-ma-ko-ssa.” Wir gingen auf den Grund des Ozeans und in den Orbit. Wir saugten Energie von der Sonne und Dünger aus der Luft. “Es werde Licht.” Wir haben die tollsten rosa Flamingo-Rasenschmuckstücke hergestellt, die es im Zweierpack gibt und die nur 9,99 $ kosten!

In einem Universum mit einem geschätzten Durchmesser von 93 Milliarden Lichtjahren und 700 Quintillionen (7 gefolgt von 20 Nullen) Planeten – hier, auf diesem winzigen blauen Punkt, den wir Erde nennen – hat einer von uns ein Werkzeug namens Spork erschaffen. Das Erstaunlichste daran ist, dass das Universum zwar schätzungsweise 26,7 Milliarden Jahre alt ist, wir aber alles in knapp 6.000 Jahren geschaffen haben.

Und das alles in weniger als 200 Generationen menschlichen Lebens.

Jetzt haben wir gerade eine neue Maschine geschaffen, die aus Milliarden von mikroskopisch kleinen Transistoren und Aluminium- und Kupferdrähten besteht, die sich im Zickzack bewegen, drehen und wenden und auf unfassbare Weise miteinander verbunden sind. Eine Maschine, die nur ein paar Zentimeter breit und lang ist.

Eine kleine, winzige Maschine, die vielleicht die letzte Erfindung ist, die der Mensch je gemacht hat.

Dies alles geht auf eine Idee zurück, die in den 1940er Jahren entwickelt und vor einigen Jahren endlich umgesetzt wurde. Das könnte alle Probleme der Welt lösen oder jeden einzelnen Menschen auf diesem Planeten mit einem Fingerschnippen vernichten – oder beides. Maschinen, die potenziell alle unsere unbeantwortbaren Fragen beantworten können: Sind wir allein im Universum? Was ist Bewusstsein? Warum sind wir hier? Denkende Maschinen, die Krebs heilen und uns bis zum Alter von 150 Jahren leben lassen könnten. Vielleicht sogar 200. Maschinen, die Schätzungen zufolge innerhalb des nächsten Jahrzehnts bis zu 30 % aller Arbeitsplätze übernehmen könnten, von Aktienhändlern über Lkw-Fahrer bis hin zu Buchhaltern und Telefonverkäufern, Anwälten, Buchhaltern und allen kreativen Berufen: Schauspieler, Schriftsteller, Musiker, Maler. Etwas, das für uns – und wahrscheinlich gegen uns – in den Krieg ziehen wird.

Künstliche Intelligenz.

Denkende Maschinen, die in einem 50 Quadratkilometer großen Fleckchen Erde, das wir Silicon Valley nennen, von ein paar hundert Männern (und einer Handvoll Frauen) gebaut werden, die in einer Sprache schreiben, die nur sie und Computer sprechen können. Und ob wir nun verstehen, was sie tun oder nicht, wir sind weitgehend den Launen ihrer Schöpfung ausgeliefert. Wir haben kein Mitspracherecht in Bezug auf die Ethik hinter ihrer Erfindung. Wir haben kein Mitspracherecht bei der Frage, ob es sie überhaupt geben sollte. “Wir erschaffen Gott”, sagte mir kürzlich ein KI-Ingenieur, der an großen Sprachmodellen (LLMs) arbeitet. “Wir erschaffen bewusste Maschinen.”

Wir haben bereits kreative KIs gesehen, die in Sekundenschnelle in jedem erdenklichen Stil malen und zeichnen können. LLMs können Geschichten im Stil von Ernest Hemingway oder Bugs Bunny oder der King James Bibel schreiben, während man betrunken ist und Erdnussbutter im Mund hat. Plattformen, die Haikus konstruieren, bei der Fertigstellung eines Romans helfen oder ein Drehbuch schreiben können. Wir haben anpassbare Pornos, bei denen man die Brustgröße oder die sexuelle Stellung einer Frau in jeder beliebigen Einstellung auswählen kann – auch mit Ihnen. Es gibt Sprach-KI-Software, die nur ein paar Sekunden der Stimme einer beliebigen Person aufnimmt und eine fast ununterscheidbare Kopie davon erstellt, wie sie etwas Neues sagt. Es gibt KI, die Musik von Ihrem Lieblingsmusiker nachspielen kann. Sie glauben mir nicht? Dann hören Sie sich an, wie “Nicht” Johnny Cash “Barbie Girl” singt, Freddie Mercury “Thriller” intoniert oder Frank Sinatra “Livin’ on a Prayer” brüllt, um zu sehen, wie erschreckend das alles ist.

Und dann ist da noch die Entdeckung neuer Medikamente. Menschen nutzen KI-Therapeuten anstelle von Menschen. Andere laden Sprachnachrichten von verstorbenen geliebten Menschen hoch, damit sie weiterhin mit ihnen interagieren können, indem sie mit einer KI-Kopie eines toten Elternteils oder Kindes sprechen. Es gibt KI-Dating-Apps (ja, man verabredet sich mit einem KI-Partner). In der Politik wird sie bereits für Fehlinformationen eingesetzt, indem sie gefälschte Videos und Audioaufnahmen erstellt. Das US-Militär erforscht den Einsatz von KI in der Kriegsführung – und könnte schließlich autonome Killerroboter entwickeln. (Hier gibt es nichts zu befürchten!) Es wird darüber diskutiert, KI einzusetzen, um völlig neue Tierarten (ja, das gibt es wirklich) oder Viren (auch das gibt es wirklich) zu schaffen. Oder es werden menschliche Eigenschaften erforscht, wie z. B. die Erschaffung einer Rasse von Supersoldaten, die stärker sind und weniger Empathie haben, alles durch KI-basierte Gentechnik.

Und wir haben all diese Technologien mit atemberaubender Geschwindigkeit eingeführt – die meisten davon wurden in nur knapp sechs Monaten realisiert.

“Das erregt und beunruhigt mich zu gleichen Teilen. Die Vorteile sind enorm, vielleicht finden diese Systeme Heilmittel für Krankheiten und Lösungen für Probleme wie Armut und Klimawandel, und das sind enorme Vorteile”, sagt David Chalmers, Professor für Philosophie und Neurowissenschaften an der NYU. “Die Nachteile sind Menschen, die von der Spitze verdrängt oder im schlimmsten Fall ganz ausgelöscht werden, [was] erschreckend ist.” In einem im letzten Monat veröffentlichten, sehr gut recherchierten Bericht von Wirtschaftswissenschaftlern heißt es: “Die Wahrscheinlichkeit, dass die KI die gesamte Menschheit bis zur Mitte des Jahrhunderts auslöscht, liegt bei mehr als 50:50.” Max Tegmark, Physiker am Massachusetts Institute of Technology, prognostiziert eine 50-prozentige Chance für den Untergang innerhalb der nächsten 100 Jahre. Andere schätzen unsere Chancen nicht so gering ein. Im Juli hat eine Gruppe von Forschern, darunter Experten für Atomkrieg, Biowaffen, künstliche Intelligenz und Aussterben, sowie eine Gruppe von “Superforecastern” – allgemeinen Prognostikern – ihre eigenen Berechnungen angestellt. Die “Experten” kamen zu dem Schluss, dass bis zum Jahr 2100 eine 20-prozentige Chance auf eine Katastrophe und eine 6-prozentige Chance auf ein KI-ähnliches Aussterbeereignis besteht, während die “Superforecasters” eine positivere Prognose mit einer 9-prozentigen Chance auf eine Katastrophe und einer nur 1-prozentigen Chance, dass wir vom Planeten ausgerottet werden, stellten.

Das fühlt sich ein wenig an wie die Ziehung der Lottozahlen für das Aussterben der Menschheit – und selbst bei einer Wahrscheinlichkeit von 1 Prozent sollten wir uns vielleicht fragen, ob diese neue Erfindung das Risiko wert ist. Doch die Frage, die im Silicon Valley kursiert, lautet nicht, ob sich ein solches Szenario lohnt, selbst bei einer 1-Prozent-Chance auf Auslöschung, sondern vielmehr, ob es wirklich so schlimm ist, wenn wir eine Maschine bauen, die das menschliche Leben, wie wir es kennen, verändert.

Larry Page ist kein einschüchternd aussehender Mann. Wenn er spricht, ist seine Stimme aufgrund einer Stimmbandverletzung so weich und rau, dass sie wie ein Lagerfeuer klingt, das einem etwas sagen will. Als ich ihm das letzte Mal vor vielen, vielen Jahren die Hand schüttelte, fühlte sie sich so weich an wie ein Stück Seife. Während Branchenkollegen wie Mark Zuckerberg und Elon Musk in der Öffentlichkeit Purzelbäume schlagen, um Aufmerksamkeit zu erregen, hat Page, der Google mitbegründet hat und im Vorstand von Alphabet sitzt, seit 2015 kein einziges öffentliches Interview mehr gegeben, als er bei einer Konferenz auf der Bühne stand. Als Page 2018 vor den Geheimdienstausschuss des Senats geladen wurde, um über die Einmischung Russlands in die Wahlen, den Online-Datenschutz und die politische Voreingenommenheit von Tech-Plattformen zu sprechen, blieb sein Stuhl leer, während die Senatoren seine Gesprächspartner ausquetschten.

Page hält sich zwar aus dem Rampenlicht heraus, nimmt aber immer noch gerne an Abendessen teil und spricht poetisch über Technologie und Philosophie. Vor ein paar Jahren saß ein Freund bei einem solchen Abendessen neben Page, und er erzählte mir eine Geschichte: Page sprach über das Fortschreiten der Technologie und darüber, dass es unvermeidlich sei, dass die Menschen irgendwann “superintelligente Maschinen” schaffen würden, auch bekannt als künstliche allgemeine Intelligenz (AGI), d. h. Computer, die schlauer sind als der Mensch, und dass diese Maschinen, sobald dies geschehen sei, keine Verwendung mehr für uns Menschen hätten und sie uns einfach loswerden würden, so Page.

“Was meinst du damit, uns loswerden?”, fragte mein Freund Page.

Wie ein Science-Fiction-Autor, der eine neue Idee für eine apokalyptische Geschichte vorstellt, erklärte Page, dass diese Roboter uns sehr schnell weit überlegen sein würden, und dass, wenn wir auf der Erde nicht mehr gebraucht würden, dies die natürliche Ordnung der Dinge sei – ich zitiere – “nur der nächste Schritt der Evolution”. Zuerst nahm mein Freund an, Page mache Witze. “Ich meine es ernst”, sagte Page. Als mein Freund argumentierte, dass dies eine wirklich beschissene Art sei, über die Welt zu denken, wurde Page ärgerlich und beschuldigte ihn, “Spezist” zu sein.

Im Laufe der Jahre habe ich ein paar andere Leute gehört, die solche Geschichten über Page erzählt haben. Musk war einer von ihnen, als er Anfang des Jahres auf Fox News interviewt wurde. Er erklärte, er habe Page früher sehr nahe gestanden, aber nach einer Debatte, in der Page auch Musk als “Spekulant” bezeichnete, hätten sie nicht mehr miteinander gesprochen. “Ich hatte den Eindruck, dass Larry die KI-Sicherheit nicht ernst genug nahm”, sagte Musk. “Er scheint wirklich eine digitale Superintelligenz zu wollen, im Grunde einen digitalen Gott, wenn man so will, so schnell wie möglich.”

“Alle Personen, die derzeit FÜHREND IN DER ENTWICKLUNG VON der KI stehen, sind in der Öffentlichkeit VOLLSTÄNDIG Unaufrichtig.”

Lassen Sie uns einen Moment innehalten und das Ganze auspacken. Larry Page… der Gründer eines der größten Unternehmen der Welt… ein Unternehmen, das Tausende von Ingenieuren beschäftigt, die gerade jetzt, während Sie dies lesen, Maschinen mit künstlicher Intelligenz bauen… glaubt, dass KI so intelligent und so mächtig und so beeindruckend werden wird und… und… dass sie uns dumme, erbärmliche kleine Menschen eines Tages nicht mehr brauchen wird… und sie wird und sollte uns loswerden!

“Wenn Larry Page sagen würde: ‘Ich werde den Planeten mit einer Atombombe auslöschen, und die Vernichtung des gesamten Planeten ist einfach die natürliche Ordnung der Dinge, und deshalb sollten wir nicht trauern’, würden wir alle sagen: ‘Was soll’s, das ist eine schreckliche Idee! “, sagte Nate Soares, Geschäftsführer des Machine Intelligence Research Institute, einer gemeinnützigen Organisation, die sich mit der Erkennung und Bewältigung potenzieller existenzieller Risiken durch AGI beschäftigt. (Page reagierte nicht auf die Bitte um einen Kommentar für diesen Artikel).

“Alle Personen, die derzeit die Entwicklung von KI anführen, sind in der Öffentlichkeit völlig unaufrichtig”, sagte mir ein Berater für politische Lobbyarbeit. “Sie befinden sich alle in einem Rennen, um die ersten zu sein, die AGI entwickeln, und sind sich entweder der Konsequenzen dessen, was schief gehen könnte, nicht bewusst oder es ist ihnen einfach egal.” Das zeigt sich auch daran, dass ein großer Teil des Silicon Valley sich nun dem Ziel verschrieben hat, superintelligente Maschinen zu entwickeln.

Viele der Personen, mit denen ich für diesen Artikel gesprochen habe, darunter KI-Philosophen, US-Senatoren und Wirtschaftsführer, befürchten, dass die Leitplanken der KI, so wie sie sind, schneller fallen könnten, als wir Zeit haben, sie zu realisieren. Einige sagen voraus, dass dies in naher Zukunft katastrophale Folgen haben wird. “Ich denke, dass die Kinder meiner Freunde mit großer Wahrscheinlichkeit nie erwachsen werden”, sagte Soares. “Wenn ich heute ein Kind bekäme, würde ich nicht damit rechnen, dass es seinen achten Geburtstag erleben würde. Mit anderen Worten: Nach Soares’ Ansicht wird es im nächsten Jahrzehnt niemanden mehr auf der Erde geben.

Soares mag übertrieben klingen, und in der Tat argumentieren andere Experten wie Kevin Kelly, einer der Gründer des Magazins Wired, dass die Wahrscheinlichkeit des Aussterbens der Menschheit unglaublich gering ist und ein solches Szenario (falls möglich) in weiter Ferne liegt. Aber selbst wenn es eine 1-Prozent-Chance gibt, dass Soares’ dunkle Realität möglich ist, ist es das wert, dass wir so schnell vorankommen?

Während die viereckige Wassermelone und der Göffel als unsere vielleicht kreativsten Erfindungen in die Geschichte des Universums eingehen sollten – vergessen wir auch nicht die Doggles -, sind die einflussreichsten Schöpfungen des Menschen in Wirklichkeit unsere Geschichten. Unglaubliche, erschreckende und schöne Geschichten, die wir uns ausgedacht und dann erzählt haben. Manche handeln von Gut und Böse, andere von Zauberern und Kobolden, netten kleinen grünen Männchen und bösen Stiefschwestern. Über die Familie Buendía und eine andere, die in Mittelerde spielt, und dann eine Geschichte über einen jungen Wissenschaftler, der in einem unorthodoxen wissenschaftlichen Experiment ein intelligentes Geschöpf erschafft. “I said a hip, hop, the hippie, the hippie, to the hip hip-hop….” Unsere Geschichten werden in Worten, Musik und Kunst aller Art erzählt. Wir haben nicht nur das Klavier erfunden, sondern auch das Nocturne in Es-Dur, op. 9, Nr. 2, damit komponiert. Wir haben Kunst gemacht, wie das letzte Abendmahl, den Denker, Duchamps Urinal (ich denke, das kann man Kunst nennen). Und dann … ACTION! Der Pate, Do the Right Thing, The Great British Bake Off und vor kurzem eine echte menschliche Innovation, MILF Manor.

Und all das haben wir in nur ein paar hundert Jahren geschafft. Aber die führenden Köpfe im Silicon Valley scheinen der Meinung zu sein, dass es an der Zeit ist, dass wir all diese Zeit und das Denken an ihre KI auslagern sollten. “Es geht hier um wirklich tiefgreifende geistige Fragen. Ich glaube nicht, dass die politischen Entscheidungsträger sich scheuen sollten, darüber zu sprechen”, sagte mir Senator Chris Murphy. “Wenn man anfängt, den Großteil der menschlichen Kreativität an Maschinen auszulagern, geht das mit einer menschlichen Fäulnis einher.” Murphy gehört zu den Senatoren, die sich am deutlichsten zu KI geäußert haben. Er schreibt regelmäßig über seine Bedenken und ist Mitglied in zahlreichen Unterausschüssen, die sich mit den Auswirkungen von KI auf die Gesellschaft befassen. Er stellte fest, dass seiner Einschätzung nach die Ersetzung menschlicher Kreativität durch Computer innerhalb der nächsten zwei bis drei Jahre in schwindelerregendem Ausmaß stattfinden wird, und das macht ihm große Angst. “Wenn wir aufhören, so zu existieren, wie wir es heute tun, und alle unsere Funktionen auf Maschinen übertragen, wird das eine ziemlich leere Existenz.”

Die KI-Befürworter sagen, dass ihre Produkte uns nur kreativer machen werden. “Die kreativen Künste werden in ein goldenes Zeitalter eintreten, da KI-erweiterte Künstler, Musiker, Schriftsteller und Filmemacher die Fähigkeit erlangen, ihre Visionen viel schneller und in größerem Umfang als je zuvor zu verwirklichen”, schrieb der milliardenschwere Risikokapitalgeber Marc Andreessen kürzlich in einem 7.000 Wörter langen Estrich über all die Möglichkeiten, wie KI das Leben besser machen wird (ironischerweise erwähnte er nicht, dass sie ihn auch reicher machen wird, da seine Risikofirma Hunderte von Millionen Dollar in KI-Unternehmen investiert hat, darunter OpenAI, Ambient.ai und Character.ai). Die KI-Träumer wie Andreessen argumentieren, dass die bevorstehende KI-Revolution die industrielle Revolution widerspiegeln wird, indem sie einige Arbeitsplätze vernichtet, aber neue, bessere schafft. (“KI-Prompt-Ingenieur” ist in letzter Zeit ein gefragter Job geworden.)

In der Tat förderte die Industrielle Revolution ein hohes Produktivitäts- und Wirtschaftswachstum, führte neue Industrien ein, verbesserte den Lebensstandard und linderte den Hunger. Sie führte jedoch auch zu entsetzlichen Arbeitsbedingungen, einschließlich Kinderarbeit, und zu einer zunehmenden Umweltverschmutzung, die zu Gesundheitsproblemen und zum Klimawandel führte. Das Wohlstandsgefälle und die sozialen Unruhen nahmen zu. Die Weltbevölkerung ist seit dieser Zeit um das Achtfache gewachsen, was auf ein deutlich höheres Störungspotenzial hinweist. Am wichtigsten ist, dass die industrielle Revolution in etwa 80 Jahren stattfand; die KI-Revolution wird in zwei oder drei Jahren stattfinden.

Für einige ist es bereits zu spät. Reddit ist übersät mit Beiträgen von Menschen, die erleben mussten, wie ihre Jobs als Werbetexter oder Marketer an eine KI übergeben wurden. “Ich habe meinen wichtigsten Kunden an das verdammte ChatGPT verloren”, schrieb ein freiberuflicher Autor Anfang des Jahres. “Ich muss mich für eine neue Karriere umschulen lassen.” (Welchen Beruf man ergreifen kann, der nicht von der KI übernommen wird, steht noch zur Debatte – bisher sind mir nur Klempner, Altenpfleger und KI-Prompt-Schreiber eingefallen). Während einige Menschen in Entwicklungsländern schnell arbeitslos werden, gibt es ein Szenario, in dem Menschen in Indien und auf den Philippinen den einsamen Job des Prompt-Schreibers übernehmen und KI nutzen, um Geschichten zu schreiben und zu illustrieren. Google hat bereits damit begonnen, der New York Times, der Washington Post und dem Wall Street Journal sein neues KI-Tool für die Erstellung von Nachrichten zu präsentieren. Menschen, die ihren Lebensunterhalt mit der Vertonung von Büchern, Fernsehsendungen und Podcasts verdient haben, sehen bereits, wie ihre Kunstform durch eine Reihe von KI-Start-ups ersetzt wird. Und angehende Künstler, die sich auf den Weg zur Kunsthochschule gemacht haben, um Malerei, Illustration und Grafikdesign zu studieren, überlegen sich, was sie mit ihrer Zukunft anfangen wollen.

“Wir sollten uns nicht damit abfinden, dass Maschinen unsere Kreativität übernehmen”, sagte Paul Kedrosky, ein Investor und Wirtschaftsforscher, der Mitbegründer von SK Ventures ist, das in KI und Technologie investiert. “Sprache und Kreativität sind das Substrat der Gesellschaft, und wir sollten die Kontrolle nicht an Maschinen abgeben, selbst wenn wir es könnten. Das ist es, was die Gesellschaft lohnend und wertvoll macht.” Kedrosky ist nicht gänzlich gegen künstliche Intelligenz; er ist der Meinung, dass wir Dinge bauen sollten, die “den Menschen helfen, sich zu entfalten, anstatt ihn überflüssig zu machen”, und er investiert dementsprechend in diese Art von KI-Produkten. Kedrosky und Murphy (und viele andere, mit denen ich gesprochen habe) argumentieren, dass wir, nur weil wir es können, es nicht tun sollten – vor allem, wenn es um etwas so Grundlegendes wie Kreativität geht. Sie argumentieren, dass wir diese Maschinen so schnell wie möglich regulieren müssen.

Während die Andreessens der Tech-Welt der Meinung sind, dass Regulierung die Innovation behindert, hoffen Murphy und eine Reihe anderer Kongressabgeordneter auf die Gründung einer völlig neuen Regulierungsbehörde, ähnlich wie die FCC nach der Erfindung des Radios oder die Nuclear Regulatory Commission zur Regulierung der Kernenergie und zahllose andere Behörden, die mit dem Aufkommen neuer Erfindungen entstanden sind. “Technologie ist keine Naturgewalt, sie ist keine universelle Eigenschaft”, sagte Kedrosky. “Zu sagen, dass es nicht in unserer Verantwortung liegt, sie aufzuhalten, ist eine nihilistische Abkehr von der Verantwortung.

Als der Statistiker I.J. Good sich 1965 vorstellte, wie die Welt aussehen würde, wenn wir ultraintelligente Maschinen erschaffen würden, sagte er, dass es in der Sekunde, in der Maschinen intelligenter werden als Menschen, “zweifellos eine Intelligenzexplosion” geben würde, da Maschinen schnell intelligentere Maschinen erschaffen würden, und dass “die Intelligenz des Menschen weit zurückbleiben würde.” Wir würden wahrscheinlich verstehen, was sie tun, so wie unsere Haustiere die Worte eines Buches verstehen, das wir vorlesen. “Daher”, schrieb Good, “ist die erste ultraintelligente Maschine die letzte Erfindung, die der Mensch jemals machen muss.”

In 2017 wurde eine obskure, aber bahnbrechende Arbeit mit dem Titel “Attention Is All You Need” (Aufmerksamkeit ist alles, was man braucht) auf der Konferenz Neural Information Processing Systems in Long Beach, Kalifornien, vorgestellt. Doch nur wenige im Publikum wussten, dass die von einer kleinen Gruppe von Google-Ingenieuren verfasste Arbeit die gesamte künstliche Intelligenz verändern würde. Illia Polosukhin, eine in der Ukraine geborene Ingenieurin, die an der Forschungsarbeit beteiligt war und in der Veröffentlichung namentlich genannt wird, erklärte mir, dass der Durchbruch darin bestand, KI als “Transformator” (ein Begriff aus dem Film Transformers) zu betrachten, bei dem Maschinen mehr wie das menschliche Gehirn und weniger wie Computer agieren, um menschenähnliche Texte zu erzeugen oder Vorhersagen zu treffen. “Das erste Mal, als wir es ausprobierten, war es nicht schlecht. Es hat erstaunlich gut funktioniert. Es war, als ob wir das erste Lebenszeichen gesehen hätten”, sagte mir Polosuchin. “Es war zwar primitiv, aber wirklich leistungsstark.”

In den nächsten Jahren schossen die KI-Start-ups in die Höhe. “Wir sehen mehr KI-bezogene Produkte und Fortschritte an einem einzigen Tag als in einem einzigen Jahr vor zehn Jahren”, sagte mir ein Produktmanager aus dem Silicon Valley. “Es ist fast unmöglich, da mitzuhalten.” Inzwischen gibt es allein in den Vereinigten Staaten mehr als 14.700 KI-Start-ups (und schätzungsweise 58.000 weltweit). Und die führenden KI-Unternehmen sammeln laut dem Investment-Tracker Crunchbase jeden Monat 3 Milliarden Dollar an Finanzmitteln ein. Im vergangenen Jahr machten die KI-Einnahmen 51,27 Milliarden Dollar der Weltwirtschaft aus. In acht Jahren (wenn wir so lange überleben) wird KI laut PwC einen Anteil von 15,7 Billionen Dollar an der Weltwirtschaft haben – mehr als das Dreifache des gesamten japanischen BIP.

Aufgrund der unglaublichen finanziellen Vorteile drängt nun fast jeder in der Tech-Branche darauf, in diesem Bereich zu arbeiten. San Franciscos Hayes Valley wurde als Cerebral Valley bezeichnet, da es jetzt Dutzende von kommunalen KI-Hackerhäusern beherbergt. Eines davon, HF0, ist eine geschätzte 16-Millionen-Dollar-Villa am Alamo Square, in der der Gründer Dave Fontenot Unterkunft, Verpflegung, Wäsche und 500.000 Dollar als Gegenleistung für eine 2,5-prozentige Beteiligung an allem, was dort entsteht, zur Verfügung stellt.

Eine der größten Sorgen bei diesen Kollektiven und bei der KI-Entwicklung im Allgemeinen ist, dass sie dem Weg fast aller früheren Technologieentwicklungen folgt. Mit anderen Worten: In diesem Bereich arbeiten hauptsächlich Tech-Bros und nur sehr wenige Frauen.

“Es ist zum Verrücktwerden”, sagt May Habib, die als Mitbegründerin und CEO von Writer – einem KI-Start-up, das Menschen in Unternehmen hilft, mit demselben Stil und derselben Stimme zu schreiben – eine der Ausnahmen ist. “Es gibt keine Frauen in der KI.” Habib, die in den 1990er Jahren im Rahmen eines libanesischen Flüchtlingsprogramms nach Kanada kam, sagte, dass die meisten ihrer Top-C-Suite-Positionen mit Frauen besetzt sind, aber das ist bei KI-Unternehmen im Valley bei weitem nicht die Norm. Sie befürchtet, dass die männerzentrierte Sichtweise dieser – oft jungen – Männer auf lange Sicht weitreichende Auswirkungen auf die Gesellschaft haben wird, einschließlich stark verzerrter Modelle. “Die Antwort der Tech-Brüder ist, dass Menschen voreingenommen sind, und das sollte auch KI sein”, sagte Habib zu mir. Schlimmer noch, so Habib, sie predigen alle die gleiche alte Silicon-Valley-Masche, dass sie in diesem Bereich arbeiten, um die Welt zu verbessern, aber am Ende des Tages geht es nur ums Geld. “Wenn man sich heute in der KI-Szene umschaut, ist jeder ein generativer KI-Kapitalist”, sagte Habib. “Die Art und Weise, wie sie verkaufen, was sie bauen, ihre Vision für die Zukunft, ist, dass es nur um Geld geht.”

Murphy ist zwar nicht im Valley, aber nach dem, was er gesehen hat, könnte er nicht mehr zustimmen. “Ich denke, es wird eine Unmenge an Geld in die KI fließen, und jeder im Silicon Valley wird versuchen, sie so schnell wie möglich zu entwickeln und nicht unbedingt das zu tun, was für die Menschheit sicher ist”, sagte er. Nirgendwo klingt diese These wahrer als im Pioneer Building in San Francisco, dem Sitz von OpenAI.

Sam Altman ist ein Gott. Ein KI-Messias. Er wird in Zeitungsartikeln angehimmelt. In Interviews angehimmelt. In diesem Frühjahr reiste Altman um die Welt und traf sich mit den Präsidenten, Premierministern und Kanzlern von mehr als zwei Dutzend Ländern auf sechs Kontinenten, darunter Frankreich, England, Nigeria, Israel, die Vereinigten Arabischen Emirate, Japan, Singapur und Indonesien, um die Vorteile der KI zu predigen, insbesondere das Unternehmen OpenAI, das er leitet.

Aber Altman wurde nicht immer auf diese Weise verehrt. Vor einem Jahrzehnt, als man sich auf der App Foursquare Abzeichen verdienen konnte (wie das “Bender”-Abzeichen für vier Abende in Folge), war das “Douchebag”-Abzeichen eine Ode an Altman, pink und grün gefärbt, passend zu den pinkfarbenen und grünen Polohemden (ja, zwei zur gleichen Zeit), die Altman auf der Bühne einer Apple-Konferenz trug. Jahrelang lasen sich seine Ratschläge auf Twitter wie ein Glückskeks von Panda Express: “Das wahre Risiko im Leben ist das Bedauern” – Aussagen, die oft mit Ratlosigkeit und dem Emoji “rollende Augen” unter Tech-Executives herumgereicht wurden. Als er kürzlich auf der OpenAI-Website ein Bild von sich postete, auf dem er von einer Schar von Menschen umgeben ist, die ihn mit verzücktem Blick fotografieren, sagte ein Valley-Insider: “Er sieht aus, als würde er sich für Gandhi halten.”

OpenAI ist zum glühenden Zentrum des KI-Wettrüstens geworden, und das Unternehmen steht nun vor einer unmöglichen Situation: die Technologie voranzutreiben, um einer Horde von Konkurrenten voraus zu sein und dabei die Menschheit nicht zu zerstören.

Als ich mit Mira Murati, dem Chief Technology Officer von OpenAI, darüber sprach, erkannte sie an, was auf dem Spiel steht, aber auch, was die Welt von dem wichtigsten technologischen Fortschritt in der Geschichte der Menschheit zu gewinnen hat. Und während KI-Gandhi auf seiner Welttournee unterwegs ist, ist Murati diejenige, die mit der eigentlichen Aufgabe betraut ist, die Technologie zu entwickeln, die die Welt retten oder zerstören könnte – und jede Menge Szenarien dazwischen. “Ich mache mir Sorgen über das Tempo des technologischen Fortschritts, insbesondere über die Fähigkeit der Gesellschaft, sich an diese Veränderungen anzupassen”, sagte Murati zu mir. “Wir machen uns jeden Tag Gedanken darüber, deshalb sind wir hier. Aber ich glaube auch, dass es sinnlos ist, zu glauben, dass der Weg zu einem guten Ergebnis sozusagen darin besteht, die Innovation zu verlangsamen oder zu stoppen”. Sie fügte hinzu: “Selbst wenn ich aufhöre, selbst wenn ein Haufen meiner Kollegen aufhört, wird der technologische Fortschritt weitergehen.”

Im Gegensatz zu den Marc Andreessens dieser Welt, die so tun, als ob KI nur Regenbögen, Sonnenschein und Feenstaub wäre, gab Murati zu meiner Überraschung zu, dass bei KI auf jeden Fall etwas schief gehen wird, dass es aber ihre Aufgabe ist, dafür zu sorgen, dass sie so schnell wie möglich gestoppt und behoben werden können, wenn sie es tun. “Ich glaube nicht, dass es das Ziel ist, absolut keine Risiken zu haben”, sagte sie. “Es geht darum, das Risiko kurzfristig zu verringern und sehr schnell reagieren zu können, wenn es passiert. Murati wies darauf hin, dass das Unternehmen kürzlich 1 Milliarde Dollar für die Forschung bereitgestellt hat, die notwendig ist, um sicherzustellen, dass die Lösungen von OpenAI den Planeten nicht auslöschen, obwohl es keine Garantien gibt. (Altman sagte kürzlich etwas Ähnliches vor einem Unterausschuss des Senats und bemerkte: “Ich denke, wenn diese Technologie schief geht, kann sie ziemlich schief gehen. Und das wollen wir lautstark zum Ausdruck bringen.”)

OpenAI hat sich auch nicht gescheut, seine Ziele als Unternehmen zu umreißen, nämlich Maschinen mit der sagenumwobenen Superintelligenz zu bauen, also Computer, die exponentiell schlauer sind als Menschen. Das bedeutet, dass LLMs über die Sprache hinausgehen und beginnen müssten, Wahrnehmung und logisches Denken zu beherrschen und den heiligen Gral der KI zu verfolgen, nämlich selbstüberwachtes Lernen, Selbsterkenntnis und Selbstverbesserung. (Es ist unklar, ob das Bewusstsein eine Voraussetzung für das Erreichen dieser Meilensteine ist).

Altman glaubt, wie er der Times sagte, dass die KI der Welt Wohlstand und Reichtum bringen wird, wie es ihn noch nie gegeben hat. Und Altman scheint in seinem Bestreben, der Erste zu sein, der dies erreicht, nicht aufzuhalten zu sein. Im Moment bewegt sich das Unternehmen definitiv auf der Grenze zwischen Beliebtheit und Offenheit. Als Altman Anfang des Jahres vor dem Kongress über die Möglichkeiten der künstlichen Intelligenz sprach, hielten ihn einige in der Branche für unaufrichtig, als er zu einer Regulierung aufrief. “Das ist so, als würde man den Chef der Waffenhersteller einladen, vor dem Kongress darüber zu sprechen, wie sicher Waffen für die Gesellschaft sind”, sagte mir ein KI-Manager über Altman. In der Tat sind seine Taten manchmal anders als die Worte, die aus seinem Mund kommen. Während Altman im Juni auf seiner Welttournee über die Notwendigkeit einer “globalen KI-Regulierung” sprach, drängte er hinter den Kulissen laut Dokumenten, die Time vorliegen, die Europäische Union aggressiv dazu, ihr KI-Gesetz abzuschwächen, insbesondere, um die Tools von OpenAI nicht als “hochriskant” einzustufen, was das Unternehmen strengen rechtlichen Anforderungen unterworfen hätte – einschließlich Transparenz, Rückverfolgbarkeit und menschlicher Aufsicht.

Um Altman und OpenAI gegenüber fair zu sein: Die meisten führenden Köpfe im Silicon Valley, die vor den Kongress gerufen werden, sagen, dass sie reguliert werden müssen – wie Mark Zuckerberg -, während sie in Wirklichkeit hinter den Kulissen mit Zähnen und Klauen dagegen kämpfen. “Ich denke, es ist wirklich einfach, allgemeine Aussagen darüber zu machen, dass man reguliert werden will, obwohl der Teufel im Detail steckt”, sagte Murphy über all die Tech-Unternehmen im Silicon Valley, die über Regulierung und KI sprechen. “Sie werden große Töne spucken, wenn es um die Regulierung und die potenziellen gravierenden Nachteile geht, aber letztendlich werden sie das Ganze so groß und schnell wie möglich zu Geld machen.”

Für Altman ist es, als würde er versuchen, einen Marathon auf einer Rasierklinge zu laufen. Er braucht die Unterstützung großer Unternehmen, um OpenAI wachsen und expandieren zu lassen, aber gleichzeitig wird KI weltweit Millionen von Arbeitsplätzen vernichten, und zwar schnell. In Indien zum Beispiel machen Callcenter 8 Prozent des BIP aus. In Brasilien sind es 6,3 Prozent. In den USA sind immer noch 3,4 Millionen Menschen in Callcentern beschäftigt, obwohl bereits Millionen dieser Arbeitsplätze nach Indien und Brasilien ausgelagert wurden. Callcenter könnten der erste Arbeitsplatz sein, der vollständig durch KI ersetzt wird, und die Auswirkungen könnten katastrophal sein. “Wenn man 8 Prozent des BIP eines Landes wegnimmt, was glauben Sie, was dann passiert?” sagte Kedrosky. “Sie werden Heugabeln auf den Straßen sehen.”

Die im Silicon Valley KURSIERENDE FRAGE, ist nicht, ob ein solches Szenario es wert ist, selbst bei einer 1-PROZENTIGE CHANCE AUF VERNICHTUNG, sondern vielmehr, ob es wirklich so schlimm ist, wenn wir eine Maschine bauen, die DAS MENSCHLICHE LEBEN, WIE WIR ES KENNEN, VERÄNDERT.

Ein KI-CEO, mit dem ich gesprochen habe, sagte, dass die CIOs der Fortune-500-Unternehmen sehr laut darüber nachdenken, ihre Belegschaft in den kommenden Jahren zu halbieren – und dann wird sie wahrscheinlich immer weiter halbiert, bis eine Handvoll Mitarbeiter LLMs beaufsichtigt, um die gleiche Arbeit zu erledigen, die früher Tausende von Menschen taten. Laut einem Bericht des Outplacement-Dienstleisters Challenger, Gray & Christmas, der Entlassungen in den Vereinigten Staaten verfolgt, haben 5 Prozent der Menschen, die im ersten Quartal dieses Jahres entlassen wurden, ihren Arbeitsplatz durch KI verloren. Diese Zahl ist zwar (noch) nicht erschütternd, aber es ist beunruhigend, dass dies das erste Mal in der 30-jährigen Geschichte des Unternehmensberichts ist, dass KI als Grund für Entlassungen genannt wird.

Murati scheint wirklich zu glauben, dass, wenn OpenAI es richtig macht, die Vorteile die Menschheit vor sich selbst retten und eine lange Liste von Problemen lösen könnten, von Welthunger über Bildung bis zu Energiekrisen. “Es scheint, wenn dieses Problem des existenziellen Risikos auftaucht, verwässert es die Bedeutung der sehr gegenwärtigen Risiken, mit denen wir heute zu tun haben, die wir noch nicht gelöst haben und die ein großes Engagement und die Aufmerksamkeit von jedem im [KI-]Raum erfordern”, sagte sie.

Für den Fall der Fälle scheint Altman jedoch einen Ersatzplan zu haben: Wie er dem New Yorker 2016 sagte, hat er “Waffen, Gold, Kaliumjodid, Antibiotika, Batterien, Wasser, Gasmasken von der israelischen Verteidigungsarmee und ein großes Stück Land in Big Sur, zu dem ich fliegen kann. Nur für den Fall, dass die Welt durch KI oder einen synthetischen Virus zerstört wird.

“Vollständige künstliche Intelligenz könnte das Ende der menschlichen Rasse bedeuten.” “KI wird die Welt retten.” “Das Risiko, dass etwas ernsthaft Gefährliches passiert, liegt im Zeitrahmen von fünf Jahren.” “Es ist einfacher, sich vorzustellen, was alles schief gehen kann, als sich vorzustellen, was richtig geht, und vieles wird richtig gehen. “Mit der KI beschwören wir den Dämon herauf.” “Ich glaube nicht, dass die Menschheit durch den Weg der KI, den wir eingeschlagen haben, zerstört wird. “Wir müssen das alles abschalten.”

Alles völlig unterschiedliche Ansichten darüber, wie sich die Sache entwickeln wird. Und das alles von Experten, die sich damit besser auskennen als jeder andere. Das ist für mich das Merkwürdigste an den Menschen, die im Bereich der künstlichen Intelligenz arbeiten: Sie alle lesen (oder schreiben) die gleiche KI-Forschung, hören (oder sprechen) die gleichen Podcasts, besuchen (oder sprechen) die gleichen Konferenzen. Und doch sind einige KI-Pessimisten und andere KI-Träumer.

Kelly, der Mitbegründer von Wired, glaubt, dass es überwiegend gut sein wird. Aber selbst dann ist er sich nicht sicher, wie sich das Ganze letztendlich entwickeln wird. “Es gibt grundsätzlich vier Arten von Beziehungen, die wir mit Robotern und KI haben werden”, erklärt er. “Die erste ist, dass wir sie wie Haustiere behandeln. Die andere ist, dass wir sie als Partner behandeln und mit ihnen zusammenarbeiten. Die beängstigendste Variante ist, dass wir sie wie Sklaven behandeln – und diese Art von Beziehung ist unglaublich zersetzend für den Besitzer.” (Das wäre so, als würden unsere Kleinkinder Alexa und Siri anschreien, weil ihre Eltern so mit diesen Maschinen sprechen, nur in einem viel größeren Maßstab). Schließlich gibt es noch das letzte Szenario, dass wir sie wie Götter behandeln. “Das ist es, was die KI-Untergangspropheten tun. Sie glauben, dass die KI sich selbst zu einem Gott mit gottähnlichen Kräften machen wird, und in einem dystopischen Akt der Überlegenheit werden die Götter uns überwältigen und unseren Platz einnehmen. Jetzt müssen wir also die KI-Götter besänftigen und dafür sorgen, dass wir ‘auf Linie’ sind, damit sie uns freundlich behandeln.”

Für Untergangspropheten scheint das das beste Szenario zu sein.

Leute wie Soares vom Machine Intelligence Research Institute befürchten, dass das Ende naht und es unzählige Möglichkeiten gibt, wie wir vernichtet werden könnten. Es gibt das “Gray-Goo-Szenario”, bei dem selbstreplizierende Nanoroboter, die von der KI mit der Absicht geschaffen wurden, schädliche Zellen oder Krankheitserreger zu verzehren, versehentlich (oder absichtlich) außer Kontrolle geraten und sich endlos vermehren, bis sie sich in eine Substanz verwandeln, die als grauer Glibber bekannt ist. Ein weiteres Beispiel ist das berühmte “Büroklammerproblem”, bei dem eine KI den Auftrag erhält, die Produktion von Büroklammern zu maximieren, und diese Aufgabe unerbittlich fortsetzt, bis sie schließlich den gesamten Planeten in Büroklammern umwandelt und alle Menschen eliminiert, die sich ihr in den Weg stellen. Glaubt man den Beiträgen des KI-Forschers Eliezer Yudkowsky, so könnte selbst eine scheinbar harmlose Anfrage nach einer Erdbeerkopie dazu führen, dass wir alle in einem Sekundenbruchteil getötet werden. Wenn wir eine KI um eine Lösung für den Klimawandel bitten, könnte sie den Menschen als die einfachste Lösung ausschließen. (Ehrlich gesagt, hätten wir das kommen sehen.)

Es gibt so viele Szenarien, die wir uns nicht einmal vorstellen können, wenn wir das nicht richtig hinbekommen. In Gesprächen mit Dutzenden von Menschen über diese neue Erfindung und was sie bringen könnte, habe ich festgestellt, dass die meisten von ihnen, wenn sie lange genug in diesem Bereich arbeiten, schließlich sehen, wie alles furchtbar schief gehen könnte – und das macht ihnen eine Heidenangst.

Als 1956 das Dartmouth Summer Research Project on Artificial Intelligence stattfand, bei dem der Begriff KI zum ersten Mal geprägt wurde, sahen alle Anwesenden die positiven Aspekte. Im Laufe der folgenden Jahrzehnte erkannten sie alle die enormen potenziellen Schattenseiten. Marvin Minsky, der seine gesamte Karriere der KI und der Entwicklung superintelligenter Maschinen gewidmet hat, war stets optimistisch, was die Möglichkeiten der KI anbelangt, aber auch besorgt darüber, dass die KI mächtig genug werden könnte, um eine Bedrohung für die Menschheit darzustellen. In letzter Zeit sind immer mehr Menschen wie Geoffrey Hinton, der seit über 50 Jahren auf dem Gebiet der KI arbeitet, und die Gründer von Anthropic, einem KI-Unternehmen, das von einer Gruppe ehemaliger OpenAI-Ingenieure gegründet wurde, entsetzt darüber, was KI der Welt antun könnte. (Anthropic hat trotzdem einen eigenen KI-Chatbot namens Claude entwickelt, der hoffentlich nicht die Menschheit vernichten wird.)

Womit ich wieder bei all den Vorhersagen der Experten wäre. Sie wissen schon, die, die fast zu surreal erscheinen, um wahr zu sein. Diejenigen, die besagen, dass wir eine 100-prozentige Chance haben, in den nächsten zehn Jahren von der KI ausgelöscht zu werden, oder die anderen, die uns bessere Chancen einräumen: 50 Prozent in 100 Jahren; 20 Prozent, 9 oder sogar 1. Man muss nicht übertreiben, um zu erkennen, dass wir alle, ob wir es wollen oder nicht, über diese Rasierklinge gezogen werden. Immerhin ist der moderne Mensch erst 6.000 Jahre alt. Nur 200 Generationen. Und doch haben wir allein im letzten Jahrhundert – in nur etwas mehr als 1 Prozent dieser Zeit – Atomwaffen, biologische Waffen und jetzt autonome Waffen entwickelt. Der Personal Computer ist etwa 50 Jahre alt. Das iPhone, 16. Die heutige KI: fünf.

Zahlreiche Regierungsstudien, die in den letzten 78 Jahren seit der Zündung der ersten Atombombe in New Mexico veröffentlicht wurden, gehen davon aus, dass ein groß angelegter Atomkrieg Hunderte von Millionen Menschen töten würde, und der anschließende nukleare Winter, eine theoretische Periode anhaltender Kälte und Dunkelheit, die durch den Fallout der Explosionen verursacht wird, könnte weitere Hunderte von Millionen Menschen töten. Höchstens ein paar Milliarden Menschen könnten sterben, aber es gibt kein Szenario, in dem unsere gesamte Spezies verschwinden würde. Dasselbe gilt für biologische Waffen und chemische Kampfstoffe, die Tausende von Menschen töten könnten. Gewehre, Bomben, Laser, Krankheiten und Hungersnöte.

Künstliche Intelligenz hingegen ist wohl die erste Technologie, die alle Menschen auf dem Planeten auslöschen könnte. Rechnen Sie selbst nach: Glauben Sie wirklich, dass wir noch 6.000 Jahre überleben werden? Weitere 200 Generationen? Wie Kedrosky es ausdrückt: Wenn wir uns weiterhin ungebremst auf dieser Rasierklinge bewegen, sind die Chancen einfach unausweichlich: “Wenn man genug Zeit hat und genug KI-Münzen wirft, geht irgendwann alles den Bach runter.”

Die im Silicon Valley KURSIERENDE FRAGE, ist nicht, ob ein solches Szenario es wert ist, selbst bei einer 1-PROZENTIGE CHANCE AUF VERNICHTUNG, sondern vielmehr, ob es wirklich so schlimm ist, wenn wir eine Maschine bauen, die DAS MENSCHLICHE LEBEN, WIE WIR ES KENNEN, VERÄNDERT.