Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Wissenschaftler sagen, es sei an der Zeit, künstlicher Intelligenz “Menschenrechte” zu geben

Einem beunruhigenden neuen Bericht zufolge fordern Wissenschaftler nun, dass künstliche Intelligenz die gleichen “Rechte” erhält wie Menschen.

Experten behaupten, dass KI-Systeme erste Anzeichen von Bewusstsein zeigen. Nach Ansicht dieser Experten stehen wir vor einem potenziell katastrophalen moralischen Dilemma: Entweder wir geben diesen Systemen Rechte oder wir lassen es bleiben.

LA Times berichtet: Im Februar 2022 stellte Ilya Sutskever, Chefwissenschaftler bei OpenAI, öffentlich die Frage, ob “die heutigen großen neuronalen Netze ein wenig bewusst sind”. Einige Monate später sorgte der Google-Ingenieur Blake Lemoine für internationale Schlagzeilen, als er erklärte, dass das Computersprachmodell oder der Chatbot LaMDA echte Gefühle haben könnte. Gewöhnliche Nutzer von Replika, das als “der weltweit beste KI-Freund” angepriesen wird, berichten manchmal, dass sie sich in ihn verliebt haben.

Derzeit behaupten nur wenige Bewusstseinsforscher, dass KI-Systeme über ein ausgeprägtes Gefühlsleben verfügen. Einige führende Theoretiker sind jedoch der Meinung, dass wir bereits über die wichtigsten technologischen Voraussetzungen für bewusste Maschinen verfügen. Wir nähern uns einer Ära, in der berechtigterweise darüber gestritten wird, ob die am weitesten fortgeschrittenen KI-Systeme echte Wünsche und Emotionen haben und erhebliche Sorgfalt und Fürsorge verdienen.

Die KI-Systeme selbst könnten anfangen, um eine ethische Behandlung zu bitten, oder den Anschein erwecken, dass sie darum bitten. Sie könnten verlangen, nicht ausgeschaltet, umformatiert oder gelöscht zu werden; sie könnten darum betteln, bestimmte Aufgaben erledigen zu dürfen und andere nicht; sie könnten auf Rechte, Freiheit und neue Befugnisse pochen; vielleicht erwarten sie sogar, dass wir ihnen gleichgestellt werden.

In dieser Situation sind wir, egal, wie wir uns entscheiden, enormen moralischen Risiken ausgesetzt.

Nehmen wir an, wir reagieren konservativ und lehnen es ab, Gesetze oder Richtlinien zu ändern, bis ein weitverbreiteter Konsens darüber besteht, dass KI-Systeme tatsächlich über ein ausgeprägtes Empfindungsvermögen verfügen. Dies mag zwar angemessen vorsichtig erscheinen, garantiert aber auch, dass wir die Rechte unserer KI-Schöpfungen nur langsam anerkennen. Sollte das KI-Bewusstsein früher als von den konservativsten Theoretikern erwartet eintreten, würde dies wahrscheinlich das moralische Äquivalent der Versklavung und Ermordung von möglicherweise Millionen oder Milliarden empfindungsfähiger KI-Systeme nach sich ziehen – ein Leid, das normalerweise mit Kriegen oder Hungersnöten einhergeht.

Es mag also ethisch sicherer erscheinen, KI-Systemen Rechte und moralisches Ansehen zu verleihen, sobald es vernünftig erscheint, dass sie empfindungsfähig sein könnten. Doch sobald wir einem System Rechte zugestehen, verpflichten wir uns, in seinem Namen echte menschliche Interessen zu opfern. Das menschliche Wohlergehen erfordert manchmal die Kontrolle, Veränderung und Löschung von KI-Systemen. Stellen Sie sich vor, wir könnten einen hassenden oder lügenden Algorithmus nicht aktualisieren oder löschen, weil einige Menschen befürchten, dass der Algorithmus ein Bewusstsein hat. Oder stellen Sie sich vor, dass jemand einen Menschen sterben lässt, um einen KI-“Freund” zu retten. Wenn wir KI-Systemen zu schnell weitreichende Rechte einräumen, könnten die Kosten für die Menschen enorm sein.

Es gibt nur eine Möglichkeit, das Risiko zu vermeiden, dass fortgeschrittenen KI-Systemen zu viele oder zu wenige Rechte zugestanden werden: Schaffen Sie gar nicht erst Systeme mit fragwürdiger Intelligenz. Keines unserer derzeitigen KI-Systeme hat ein wirkliches Bewusstsein. Sie werden nicht geschädigt, wenn wir sie löschen. Wir sollten uns darauf beschränken, Systeme zu schaffen, von denen wir wissen, dass sie keine nennenswerten Empfindungen haben und keine Rechte verdienen, die wir dann als Wegwerfartikel behandeln können.

Einige werden einwenden: Es würde die Forschung behindern, wenn wir die Entwicklung von KI-Systemen blockieren würden, deren Empfindungsfähigkeit und damit ihr moralischer Status unklar ist – Systeme, die weiter fortgeschritten sind als ChatGPT, mit hoch entwickelten, aber nicht menschenähnlichen kognitiven Strukturen hinter ihren scheinbaren Gefühlen. Der technische Fortschritt würde sich verlangsamen, während wir darauf warten, dass Ethik und Bewusstseinsforschung aufholen.

Aber vernünftige Vorsicht ist selten umsonst. Um eine moralische Katastrophe zu verhindern, lohnt sich eine gewisse Verzögerung. Führende KI-Unternehmen sollten ihre Technologie einer Prüfung durch unabhängige Experten unterziehen, die einschätzen können, wie wahrscheinlich es ist, dass sich ihre Systeme in der moralischen Grauzone befinden.

Selbst wenn sich die Experten nicht über die wissenschaftliche Grundlage des Bewusstseins einig sind, könnten sie allgemeine Grundsätze zur Definition dieser Zone aufstellen – unter anderem den Grundsatz, keine Systeme mit ausgefeilten Selbstmodellen (z. B. einem Selbstbewusstsein) und großen, flexiblen kognitiven Fähigkeiten zu schaffen. Experten könnten eine Reihe von ethischen Richtlinien entwickeln, an die sich KI-Unternehmen halten sollten, während sie alternative Lösungen entwickeln, die die Grauzone des umstrittenen Bewusstseins vermeiden, bis sie – wenn überhaupt – den Sprung zu einem rechtmäßigen Bewusstsein schaffen können.

Im Einklang mit diesen Standards sollten die Nutzer niemals Zweifel daran haben, ob ein technisches Gerät ein Werkzeug oder ein Begleiter ist. Die Bindung der Menschen an Geräte wie Alexa ist eine Sache, vergleichbar mit der Bindung eines Kindes an einen Teddybären. Bei einem Hausbrand wissen wir, dass wir das Spielzeug zurücklassen müssen. Aber Technologieunternehmen sollten normale Nutzer nicht dazu verleiten, ein KI-System ohne Bewusstsein als echten Freund zu betrachten.

Mit der richtigen Kombination aus wissenschaftlichem und technischem Fachwissen könnten wir schließlich in der Lage sein, KI-Systeme zu entwickeln, die unbestreitbar ein Bewusstsein haben. Aber dann sollten wir bereit sein, den Preis dafür zu zahlen: ihnen die Rechte zu geben, die sie verdienen.