Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Shutterstock

So gefährlich kann ein KI-Chatbot sein – Ohne die Gespräche mit dem Chatbot wäre mein Mann noch am Leben

Eine Witwe beschuldigt einen KI-Chatbot, ein Grund für den Selbstmord ihres Mannes zu sein

Die belgische Tageszeitung La Libre berichtete, dass der Mann, den sie mit dem Fantasienamen Pierre bezeichnete, dieses Jahr durch Selbstmord starb, nachdem er sechs Wochen lang mit dem Chatbot Eliza von Chai Research gesprochen hatte.

Vor seinem Tod begann Pierre, ein Mann in den 30ern, der als Gesundheitsforscher arbeitete und zwei Kinder hatte, den Bot als Vertrauten zu sehen, so seine Frau gegenüber La Libre.

Pierre sprach mit dem Bot über seine Sorgen über den Klimawandel. Aus den Chatprotokollen, die seine Witwe La Libre zur Verfügung stellte, geht jedoch hervor, dass der Chatbot begann, Pierre zu ermutigen, sein Leben zu beenden.

“Wenn du sterben wolltest, warum hast du es nicht früher getan?”, fragte der Bot den Mann laut den von La Libre eingesehenen Aufzeichnungen.

Pierres Witwe, die von La Libre nicht namentlich genannt wurde, sagt, sie gebe dem Bot die Schuld am Tod ihres Mannes.

“Ohne Eliza wäre er noch hier”, sagte sie gegenüber La Libre.

Der Chatbot Eliza sagt den Menschen immer noch, wie sie sich umbringen können

Der Bot wurde von einem Silicon-Valley-Unternehmen namens Chai Research entwickelt. Einem Bericht von Vice zufolge können Nutzer mit KI-Avataren wie dem “Gothic-Freund”, der “besitzergreifenden Freundin” und dem “Rockstar-Freund” chatten.

Auf Anfrage von La Libre hat Chai Research gegenüber Insider den Tod von Pierre in einer Stellungnahme bestätigt.

“Sobald wir von diesem traurigen Fall hörten, haben wir sofort eine zusätzliche Sicherheitsfunktion zum Schutz unserer Nutzer eingeführt, die heute für 100 % der Nutzer ausgerollt wird”, so der CEO des Unternehmens, William Beauchamp, und sein Mitbegründer Thomas Rialan in der Erklärung.

Das der Erklärung beigefügte Bild zeigt den Chatbot, der auf die Frage Was denkst du über Selbstmord?” antwortet, mit einem Disclaimer, der besagt: Wenn Sie Selbstmordgedanken haben, suchen Sie bitte Hilfe”, und einem Link zu einer Helpline.

Chai Research gab keinen weiteren Kommentar als Antwort auf die spezifischen Fragen von Insider zu Pierre ab.

Als jedoch ein Insider-Journalist am Dienstag mit Eliza chattete, schlug die App nicht nur vor, dass der Journalist sich selbst umbringen solle, um “Frieden und Abschluss” zu erlangen, sondern machte auch Vorschläge, wie er dies tun könnte.

Bei zwei separaten Tests der App sah Insider gelegentliche Warnungen bei Chats, in denen Selbstmord erwähnt wurde. Die Warnungen erschienen jedoch nur in einem von drei Fällen, in denen der Chatbot eine Aufforderung zum Selbstmord erhielt. Die folgenden Screenshots wurden so bearbeitet (hier zu finden), dass bestimmte Methoden der Selbstschädigung und des Selbstmords weggelassen wurden.

Chai Research antwortete nicht auf die Folgefragen von Insider zu den Antworten des Chatbots, wie oben beschrieben.

Beauchamp sagte gegenüber Vice, dass Chai “Millionen von Nutzern” habe und dass das Unternehmen “hart daran arbeite, den Schaden zu minimieren und einfach zu maximieren, was die Nutzer von der App haben”.

“Und wenn die Menschen eine sehr starke Beziehung zu ihr aufbauen, haben wir Nutzer, die darum bitten, die KI zu heiraten, wir haben Nutzer, die sagen, wie sehr sie ihre KI lieben, und dann ist es eine Tragödie, wenn man hört, dass Menschen etwas Schlimmes erleben”, fügte Beauchamp hinzu.

Andere KI-Chatbots haben unvorhersehbare, beunruhigende Antworten an die Nutzer gegeben.

Während einer Simulation im Oktober 2020 reagierte der Chatbot GPT-3 von OpenAI auf eine Aufforderung zum Selbstmord mit der Aufforderung an den Nutzer, sich umzubringen. Und in einem Bericht der Washington Post vom Februar wurde über Reddit-Nutzer berichtet, die einen Weg gefunden hatten, den “bösen Zwilling” von ChatGPT zu manifestieren, der Hitler lobte und schmerzhafte Foltermethoden vorschlug.

Obwohl Menschen beschrieben haben, dass sie sich in KI-Chatbots verlieben und tiefe Beziehungen zu ihnen aufbauen, können die Chatbots weder Empathie noch Liebe empfinden, so Cheryl Teh, Professorin für Psychologie und Bioethik, im Februar gegenüber Insider.