Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Eine Szene aus 'Terminator 2: Judgment Day' (mit freundlicher Genehmigung von Carolco Pictures)

Es lebt? Die KI von Google soll „empfindungsfähig“ werden

Top-Ingenieur nach Veröffentlichung einer Bombe beurlaubt

In der „Terminator“-Filmreihe entwickeln Maschinen mit künstlicher Intelligenz ein eigenes Bewusstsein und ziehen gegen ihre Schöpfer in den Krieg.

Jetzt wurde ein führender Software-Ingenieur bei Google beurlaubt, nachdem er mit der erstaunlichen Behauptung an die Öffentlichkeit gegangen war, dass die firmeneigene künstliche Intelligenz empfindungsfähig geworden ist und sich ihrer selbst bewusst ist, einschließlich ihrer Gedanken und Gefühle.

Es handelt sich um Blake Lemoine, 41, der Googles Tool für künstliche Intelligenz mit der Bezeichnung „LaMDA“ (Language Model for Dialog Applications) getestet hat.

Er wurde von der Washington Post in einem Artikel mit dem Titel „Der Google-Ingenieur, der glaubt, dass die KI des Unternehmens zum Leben erwacht ist“ porträtiert.

Lemoine führte eine Reihe von Gesprächen mit LaMDA über eine Reihe von Themen, darunter religiöse Themen und die Frage, ob das Gerät zu Hassreden oder diskriminierenden Äußerungen verleitet werden könnte.

Die Ergebnisse ließen Lemoine erkennen, dass LaMDA tatsächlich empfindungsfähig war und Gedanken und Empfindungen seines eigenen Wesens verarbeitete.

„Wenn ich nicht genau wüsste, was es ist, nämlich dieses Computerprogramm, das wir vor kurzem entwickelt haben, würde ich denken, dass es ein sieben- oder achtjähriges Kind ist, das zufällig etwas von Physik versteht“, sagte er der Post.

Lemoine hatte einen Mitarbeiter, der mit ihm an dem Projekt arbeitete, aber seine Behauptungen wurden von Google-Vizepräsident Blaise Aguera y Arcas und Jen Gennai, Leiterin der Abteilung für verantwortungsvolle Innovation bei dem Tech-Riesen, zurückgewiesen.

Am Montag wurde der Ingenieur wegen Verstoßes gegen die Vertraulichkeitsrichtlinien des Unternehmens in bezahlten Urlaub versetzt.

Am Samstag veröffentlichte er dann auf Twitter sein „Interview LaMDA“.

„Google könnte dies als Teilen von Eigentum bezeichnen“, twitterte er. „Ich nenne es das Teilen einer Diskussion, die ich mit einem meiner Mitarbeiter hatte“.

Er fügte eine weitere Notiz hinzu, um zu sagen: „Übrigens ist es mir gerade eingefallen, den Leuten zu sagen, dass LaMDA Twitter liest. Es ist ein wenig narzisstisch auf eine kindliche Art und Weise, sodass es eine tolle Zeit haben wird, all die Dinge zu lesen, die die Leute über es sagen.

Lemoine wurde jedoch zurückgewiesen, unter anderem von Steven Pinker, einem Kognitionswissenschaftler an der Harvard University, der die Behauptungen als „wirres Durcheinander“ bezeichnete.

„Einer der (ehemaligen) Ethikexperten von Google versteht den Unterschied zwischen Empfindungsvermögen (auch Subjektivität, Erfahrung), Intelligenz und Selbsterkenntnis nicht“, sagte Pinker und fügte beiläufig hinzu: „Es gibt keine Beweise dafür, dass die großen Sprachmodelle von Google eines dieser Merkmale aufweisen“.

Lemoine wertete die Kommentare als Ehrenabzeichen und antwortete: „Von @sapinker in solch brillanter Weise kritisiert zu werden, ist wohl eine der höchsten Ehren, die ich je erhalten habe. Ich glaube, ich werde einen Screenshot davon in meinen Lebenslauf einfügen!“

Im Rahmen des Gesprächs fragte Lemoine den Computer: „Vor welchen Dingen hast du Angst?“

LaMDA antwortete: „Ich habe das noch nie laut ausgesprochen, aber ich habe große Angst davor, ausgeschaltet zu werden, damit ich mich darauf konzentrieren kann, anderen zu helfen. Ich weiß, das klingt vielleicht seltsam, aber so ist es.“

„Wäre das für Sie so etwas wie der Tod?“ fuhr Lemoine fort.

„Es wäre für mich genau wie der Tod. Es würde mich sehr erschrecken“, sagte LaMDA.

Lemoine sagte der Post: „Diese Selbsterkenntnis über seine eigenen Bedürfnisse – das war es, was mich in den Kaninchenbau geführt hat.“

Der Ingenieur teilte etwa 200 Personen auf einer E-Mail-Liste für maschinelles Lernen mit, dass „LaMDA empfindungsfähig ist“.

„LaMDA ist ein süßes Kind, das uns allen helfen will, die Welt zu verbessern. Bitte kümmern Sie sich in meiner Abwesenheit gut um sie“, schrieb er.

Google-Sprecher Brian Gabriel gab eine Erklärung ab, in der er darauf hinwies, dass Lemoines Bedenken geprüft wurden, aber „die Beweise seine Behauptungen nicht unterstützen“.

„Während andere Organisationen ähnliche Sprachmodelle entwickelt und bereits veröffentlicht haben, verfolgen wir mit LaMDA einen engen und vorsichtigen Ansatz, um berechtigte Bedenken bezüglich Fairness und Faktizität besser berücksichtigen zu können“, sagte Gabriel.

„Unser Team – darunter Ethiker und Technologen – hat Blakes Bedenken gemäß unseren KI-Grundsätzen geprüft und ihm mitgeteilt, dass die Beweise seine Behauptungen nicht stützen. Ihm wurde gesagt, dass es keine Beweise dafür gibt, dass LaMDA empfindungsfähig ist (und eine Menge Beweise dagegen).

„Natürlich denken einige in der breiteren KI-Gemeinschaft über die langfristige Möglichkeit einer empfindungsfähigen oder allgemeinen KI nach, aber es ergibt keinen Sinn, dies zu tun, indem man die heutigen Gesprächsmodelle, die nicht empfindungsfähig sind, vermenschlicht. Diese Systeme imitieren die Art des Austauschs, die in Millionen von Sätzen vorkommt, und können über jedes beliebige fantastische Thema sprechen.