Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Hype oder Gefahr: Stellt KI wirklich eine existenzielle Bedrohung für die Menschheit dar?
Lon Tweeten for TIME; Getty Images

Hype oder Gefahr: Stellt KI wirklich eine existenzielle Bedrohung für die Menschheit dar?

Diese Geschichte ist aus mehreren Gründen verdächtig: 1) Sie wurde von Time, Inc. veröffentlicht, einem wichtigen Organ der Globalisten; 2) die Studie wurde vom State Department gesponsert, dessen Außenminister Blinken Mitglied der Trilateralen Kommission ist; 3) die Autoren der Studie waren früher mit Y-Combinator verbunden, das früher von Sam Altman geleitet wurde, mit anderen Worten, sie sind Technokraten, die angesichts des Monsters, das sie geschaffen haben, ausflippen könnten. ⁃ TN-Redakteur

Von Billy Perrigo

Die US-Regierung muss “schnell und entschlossen” handeln, um erhebliche Risiken für die nationale Sicherheit abzuwenden, die von der künstlichen Intelligenz (KI) ausgehen und im schlimmsten Fall eine “Bedrohung auf dem Niveau des Aussterbens der menschlichen Spezies” darstellen könnten, heißt es in einem von der US-Regierung in Auftrag gegebenen und am Montag veröffentlichten Bericht.

“Die derzeitige Entwicklung der Künstlichen Intelligenz (KI) stellt ein dringendes und wachsendes Risiko für die nationale Sicherheit dar”, heißt es in dem Bericht, der der ZEIT vor seiner Veröffentlichung vorliegt. “Der Aufstieg von fortgeschrittener KI und AGI [künstliche allgemeine Intelligenz] hat das Potenzial, die globale Sicherheit in einer Weise zu destabilisieren, die an die Einführung von Atomwaffen erinnert.” AGI ist eine hypothetische Technologie, die die meisten Aufgaben auf oder über dem Niveau eines Menschen ausführen könnte. Solche Systeme gibt es derzeit noch nicht, aber die führenden KI-Labors arbeiten daran, und viele gehen davon aus, dass AGI innerhalb der nächsten fünf Jahre oder weniger verfügbar sein wird.

Die drei Autoren des Berichts haben mehr als ein Jahr lang daran gearbeitet und im Rahmen ihrer Recherchen mit mehr als 200 Regierungsangestellten, Experten und Mitarbeitern von Pionierunternehmen der KI – wie OpenAI, Google DeepMind, Anthropic und Meta – gesprochen. Die Berichte aus einigen dieser Gespräche zeichnen ein beunruhigendes Bild, das darauf hindeutet, dass viele KI-Sicherheitsmitarbeiter in Spitzenlabors über perverse Anreize besorgt sind, die die Entscheidungsfindung der Führungskräfte steuern, die ihre Unternehmen kontrollieren.

Das fertige Dokument mit dem Titel “An Action Plan to Increase the Safety and Security of Advanced AI” (Aktionsplan zur Erhöhung der Sicherheit fortgeschrittener KI) empfiehlt eine Reihe weitreichender und beispielloser politischer Maßnahmen, die, wenn sie in Kraft treten, die KI-Branche radikal umwälzen würden. Der Kongress sollte es illegal machen, KI-Modelle zu trainieren, die mehr als eine bestimmte Rechenleistung benötigen, empfiehlt der Bericht. Der Schwellenwert sollte dem Bericht zufolge von einer neuen KI-Bundesbehörde festgelegt werden, wobei der Bericht als Beispiel vorschlägt, dass die Behörde den Schwellenwert knapp über dem Niveau der Rechenleistung festlegen könnte, die für das Training aktueller Spitzenmodelle wie OpenAIs GPT-4 und Googles Gemini verwendet wird. Die neue KI-Behörde sollte von KI-Unternehmen an der “Grenze” der Branche verlangen, dass sie eine staatliche Genehmigung für das Training und den Einsatz neuer Modelle oberhalb einer bestimmten Untergrenze einholen, so der Bericht weiter. Die Behörden sollten auch “dringend” in Erwägung ziehen, die Veröffentlichung der “Gewichte” oder des Innenlebens leistungsfähiger KI-Modelle zu verbieten, beispielsweise im Rahmen von Open-Source-Lizenzen, wobei Verstöße mit Gefängnisstrafen geahndet werden könnten, heißt es in dem Bericht. Darüber hinaus sollte die Regierung die Kontrollen für die Herstellung und den Export von KI-Chips weiter verschärfen und Bundesmittel für die “Anpassungsforschung” bereitstellen, die darauf abzielt, fortschrittliche KI sicherer zu machen, empfiehlt der Bericht.

Der Bericht wurde vom Außenministerium im November 2022 im Rahmen eines Bundesvertrags in Höhe von 250.000 Dollar in Auftrag gegeben, wie aus öffentlichen Unterlagen hervorgeht. Er wurde von Gladstone AI verfasst, einem vierköpfigen Unternehmen, das technische Briefings über KI für Regierungsmitarbeiter durchführt. (In Teilen des Aktionsplans wird empfohlen, dass die Regierung in großem Umfang in die Ausbildung von Beamten über die technischen Grundlagen von KI-Systemen investiert, damit sie deren Risiken besser verstehen können). Der Bericht wurde dem Außenministerium am 26. Februar in Form eines 247-seitigen Dokuments übergeben. Das Außenministerium reagierte nicht auf mehrere Bitten um Kommentare zu dem Bericht. Die Empfehlungen “spiegeln nicht die Ansichten des Außenministeriums der Vereinigten Staaten oder der Regierung der Vereinigten Staaten wider”, heißt es auf der ersten Seite des Berichts.

Die Empfehlungen des Berichts, von denen viele zuvor undenkbar waren, folgen auf eine schwindelerregende Reihe bedeutender Entwicklungen im Bereich der KI, die viele Beobachter dazu veranlasst haben, ihre Haltung zu dieser Technologie zu überdenken. Der Chatbot ChatGPT, der im November 2022 auf den Markt kam, war das erste Mal, dass dieses Tempo des Wandels für die Gesellschaft sichtbar wurde, was viele Menschen dazu veranlasste, sich zu fragen, ob künftige KI existenzielle Risiken für die Menschheit darstellen könnte. Seitdem wurden in rasantem Tempo immer neue Tools mit immer mehr Funktionen veröffentlicht. Während Regierungen auf der ganzen Welt darüber diskutieren, wie KI am besten zu regulieren ist, haben die größten Technologieunternehmen der Welt in kürzester Zeit die Infrastruktur aufgebaut, um die nächste Generation leistungsfähigerer Systeme zu trainieren – in einigen Fällen planen sie, die zehn- oder hundertfache Rechenleistung zu nutzen. Inzwischen glauben mehr als 80 % der amerikanischen Öffentlichkeit, dass KI versehentlich eine Katastrophe auslösen könnte, und 77 % der Wähler sind der Meinung, dass die Regierung mehr für die Regulierung von KI tun sollte, so eine aktuelle Umfrage des AI Policy Institute.

Ein Verbot der Ausbildung fortgeschrittener KI-Systeme oberhalb eines bestimmten Schwellenwerts, so der Bericht, könnte “die Dynamik des Wettlaufs zwischen allen KI-Entwicklern abschwächen” und dazu beitragen, dass die Chipindustrie weniger schnell schnell schnellere Hardware herstellt. Im Laufe der Zeit könnte eine Bundesagentur für KI den Schwellenwert anheben und das Training von fortgeschritteneren KI-Systemen erlauben, sobald die Sicherheit von Spitzenmodellen hinreichend bewiesen ist, schlägt der Bericht vor. Ebenso könnte die Regierung die Sicherheitsschwelle herabsetzen, wenn in bestehenden Modellen gefährliche Fähigkeiten entdeckt werden.

Der Vorschlag dürfte auf politische Schwierigkeiten stoßen. “Ich halte es für äußerst unwahrscheinlich, dass diese Empfehlung von der US-Regierung angenommen wird”, sagt Greg Allen, Direktor des Wadhwani Center for AI and Advanced Technologies am Center for Strategic and International Studies (CSIS), als Antwort auf eine von TIME zur Verfügung gestellte Zusammenfassung der Empfehlung des Berichts, KI-Trainingsläufe oberhalb einer bestimmten Schwelle zu verbieten. Die derzeitige KI-Politik der US-Regierung, so merkt er an, besteht darin, Schwellenwerte für Berechnungen festzulegen, oberhalb derer zusätzliche Transparenzüberwachungs- und Regulierungsanforderungen gelten, aber nicht darin, Grenzen festzulegen, oberhalb derer Trainingsläufe illegal wären. “Ohne eine Art exogenen Schock halte ich es für ziemlich unwahrscheinlich, dass sie diesen Ansatz ändern”, sagt Allen.

Jeremie und Edouard Harris, der CEO bzw. CTO von Gladstone, informieren die US-Regierung seit 2021 über die Risiken der KI. Die beiden Brüder sagen, dass Regierungsbeamte, die an vielen ihrer ersten Briefings teilgenommen haben, die Risiken der KI zwar für erheblich hielten, ihnen aber sagten, dass die Verantwortung für den Umgang mit ihnen bei verschiedenen Teams oder Abteilungen liege. Ende 2021, so die Harrises, fand Gladstone schließlich eine Abteilung in der Regierung, die für die Behandlung von KI-Risiken zuständig war: das Büro für internationale Sicherheit und Nichtverbreitung des Außenministeriums (Bureau of International Security and Nonproliferation). Die Teams innerhalb des Büros haben ein behördenübergreifendes Mandat, sich mit den Risiken neuer Technologien zu befassen, darunter chemische und biologische Waffen sowie radiologische und nukleare Risiken. Nach einer Unterrichtung durch Jeremie und den damaligen Geschäftsführer von Gladstone, Mark Beall, schrieb das Büro im Oktober 2022 einen Bericht aus, der als Entscheidungsgrundlage für die Aufnahme von KI in die Liste der anderen von ihm überwachten Risiken dienen könnte. (Das Außenministerium reagierte nicht auf eine Anfrage nach einem Kommentar zum Ergebnis dieser Entscheidung). Das Gladstone-Team erhielt den Zuschlag für diesen Auftrag, und der am Montag veröffentlichte Bericht ist das Ergebnis.

Der Bericht befasst sich mit zwei verschiedenen Risikokategorien. In der ersten Kategorie, die im Bericht als “Bewaffnungsrisiko” bezeichnet wird, heißt es: “Solche Systeme könnten potenziell für die Planung und Durchführung katastrophaler biologischer, chemischer oder Cyber-Angriffe eingesetzt werden oder noch nie dagewesene waffenfähige Anwendungen in der Schwarmrobotik ermöglichen.” Die zweite Kategorie nennt der Bericht das Risiko des “Kontrollverlusts” oder die Möglichkeit, dass fortschrittliche KI-Systeme ihre Schöpfer ausmanövrieren könnten. Es gibt, so der Bericht, “Grund zu der Annahme, dass sie unkontrollierbar sein könnten, wenn sie mit den derzeitigen Techniken entwickelt werden, und dass sie sich dem Menschen gegenüber standardmäßig feindlich verhalten könnten”.

Beide Risikokategorien, so der Bericht, werden durch die “Wettbewerbsdynamik” in der KI-Branche noch verschärft. Die Wahrscheinlichkeit, dass das erste Unternehmen, das AGI entwickelt, den größten Teil der wirtschaftlichen Gewinne einheimsen wird, verleitet die Unternehmen dazu, Geschwindigkeit über Sicherheit zu stellen, so der Bericht. “Frontier-KI-Labors haben einen starken und unmittelbaren Anreiz, ihre KI-Systeme so schnell wie möglich zu skalieren”, heißt es in dem Bericht. “Sie haben keinen unmittelbaren Anreiz, in Sicherheitsmaßnahmen zu investieren, die keinen direkten wirtschaftlichen Nutzen bringen, auch wenn einige dies aus echter Sorge tun.”

Der Gladstone-Bericht identifiziert die Hardware – insbesondere die High-End-Computerchips, die derzeit für das Training von KI-Systemen verwendet werden – als einen erheblichen Engpass für die Steigerung der KI-Fähigkeiten. Die Regulierung der Verbreitung dieser Hardware, so argumentiert der Bericht, könnte die wichtigste Voraussetzung sein, um langfristig die globale Sicherheit vor KI zu gewährleisten. Dem Bericht zufolge sollte die Regierung prüfen, ob sie die Erteilung von Exportlizenzen für Chips an das Vorhandensein von On-Chip-Technologien knüpfen kann, die eine Überwachung der Verwendung von Chips in großen KI-Trainingsläufen ermöglichen, um die vorgeschlagenen Regeln gegen das Training von KI-Systemen, die größer als GPT-4 sind, durchzusetzen. Der Bericht weist jedoch auch darauf hin, dass bei allen Maßnahmen die Möglichkeit berücksichtigt werden muss, dass eine Überregulierung die ausländische Chipindustrie stärken und die Fähigkeit der USA, die Lieferkette zu beeinflussen, untergraben könnte.

Der Bericht wirft auch die Möglichkeit auf, dass die physikalischen Grenzen des Universums letztlich nicht auf der Seite derjenigen stehen, die versuchen, die Verbreitung fortgeschrittener KI durch Chips zu verhindern. “Da die KI-Algorithmen immer besser werden, stehen immer mehr KI-Funktionen für immer weniger Rechenleistung zur Verfügung. Je nachdem, wie weit dieser Trend fortschreitet, könnte es letztendlich unpraktisch werden, die Ausbreitung fortgeschrittener KI durch Rechenkonzentrationen überhaupt einzudämmen.” Um dieser Möglichkeit Rechnung zu tragen, könnte dem Bericht zufolge eine neue KI-Bundesbehörde prüfen, ob die Veröffentlichung von Forschungsergebnissen, die die Effizienz von Algorithmen verbessern, blockiert werden kann.

Die Harrises räumen im Gespräch ein, dass ihre Empfehlungen vielen in der KI-Branche als übereifrig erscheinen werden. Sie erwarten, dass die Empfehlung, das Open-Sourcing von fortgeschrittenen KI-Modellgewichten zu verbieten, nicht auf Gegenliebe stoßen wird. “Open Source ist im Allgemeinen ein wunderbares Phänomen und insgesamt sehr positiv für die Welt”, sagt Edouard, der Chief Technology Officer von Gladstone. “Es ist eine extrem schwierige Empfehlung, und wir haben viel Zeit damit verbracht, nach Wegen zu suchen, um solche Maßnahmen vorzuschlagen.” Allen, der Experte für KI-Politik am CSIS, sagt, er habe Verständnis für die Idee, dass Open-Source-KI es den politischen Entscheidungsträgern erschwert, die Risiken in den Griff zu bekommen. Aber er sagt, dass jeder Vorschlag, das Open-Sourcing von Modellen ab einer bestimmten Größe zu verbieten, mit der Tatsache konfrontiert wäre, dass die US-Gesetze nur eine begrenzte Reichweite haben. “Würde das nur bedeuten, dass die Open-Source-Gemeinschaft nach Europa abwandert”, sagt er. “Angesichts der Tatsache, dass die Welt groß ist, muss man das in Betracht ziehen.

Trotz dieser Herausforderungen haben sich die Autoren des Berichts davon überzeugen lassen, wie einfach und billig es derzeit für Nutzer ist, die Sicherheitsvorkehrungen eines KI-Modells zu entfernen, wenn sie Zugang zu dessen Gewichten haben. “Wenn man ein Open-Source-Modell verbreitet, kann es, auch wenn es sicher aussieht, im Nachhinein gefährlich werden”, sagt Edouard und fügt hinzu, dass die Entscheidung für ein Open-Source-Modell unumkehrbar ist. “An diesem Punkt kann man nur noch Glück haben und den Schaden in Kauf nehmen”.

Der dritte Mitverfasser des Berichts, der ehemalige Beamte des Verteidigungsministeriums Beall, hat Gladstone inzwischen verlassen, um ein Super-PAC zu gründen, das sich für die KI-Politik einsetzt. Das PAC mit dem Namen Americans for AI Safety (Amerikaner für KI-Sicherheit) wurde am Montag offiziell gegründet. Es zielt darauf ab, die Sicherheit von KI “zu einem Schlüsselthema bei den Wahlen 2024 zu machen, mit dem Ziel, bis Ende 2024 eine Gesetzgebung zur KI-Sicherheit zu verabschieden”, so die Gruppe in einer Erklärung gegenüber TIME. Das PAC gab seine Finanzierungszusagen nicht bekannt, sagte aber, dass es sich zum Ziel gesetzt hat, “Millionen von Dollar zu sammeln, um seine Mission zu erfüllen.”

Bevor sie Gladstone zusammen mit Beall gründeten, leiteten die Harris-Brüder ein KI-Unternehmen, das den berühmten Silicon Valley-Inkubator YCombinator durchlief, zu der Zeit, als OpenAI-CEO Sam Altman am Ruder war. Die beiden führen diese Referenzen als Beweis dafür an, dass ihnen die Interessen der Branche am Herzen liegen, auch wenn ihre Empfehlungen, sollten sie umgesetzt werden, die Branche umkrempeln würden. “Wir lieben diese Philosophie, wir sind mit ihr aufgewachsen”, sagt Jeremie gegenüber TIME. Aber das Credo, sagt er, hört auf zu gelten, wenn die potenziellen Nachteile des eigenen Handelns so massiv sind. “Unser Standardkurs”, so Jeremie, “scheint derzeit darauf hinauszulaufen, Systeme zu schaffen, die so mächtig sind, dass sie entweder katastrophale Auswirkungen haben oder nicht kontrolliert werden können.” Er fügt hinzu: “Eines der schlimmsten Szenarien ist ein katastrophales Ereignis, das die KI-Forschung für alle komplett zum Erliegen bringt, und wir können die unglaublichen Vorteile dieser Technologie nicht nutzen.”