Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Brechen Sie die Regeln? AI zeigt keine Gnade

Die KI wird zum Richter, Geschworenen und Henker. Wenn Sie gegen die Regeln verstoßen, gibt es keine Gnade oder menschliches Verständnis. Die KI ist nicht in der Lage, menschliches Verständnis oder Gefühle zu empfinden. Die Bestrafung wird schnell erfolgen, und es wird keine Berufung oder andere Möglichkeit geben, seinen Namen reinzuwaschen. In der Science-Fiction wurde dies bereits mehrfach thematisiert, z. B. in RoboCop, Judge Dredd und dem Minority Report. ⁃ TN-Editor

Man könnte meinen, dass ein Computer ein unvoreingenommener und fairer Richter wäre, aber eine neue Studie zeigt, dass es besser ist, sein Schicksal in die Hände von Menschen zu legen. Forscher des MIT haben herausgefunden, dass künstliche Intelligenz (KI) dazu neigt, strengere und härtere Urteile als Menschen zu fällen, wenn es um Menschen geht, die die Regeln verletzen. Einfach ausgedrückt: KI ist nicht bereit, Menschen, die gegen das Gesetz verstoßen, einfach vom Haken zu lassen!

Forscher haben die Befürchtung geäußert, dass KI je nach den Informationen, mit denen Wissenschaftler sie programmieren, übermäßig harte Strafen verhängen könnte. Wenn die KI streng nach Regeln programmiert wird, die keine menschlichen Nuancen enthalten, neigt sie dazu, härter zu reagieren, als wenn sie auf der Grundlage menschlicher Reaktionen programmiert wird.

In dieser Studie, die von einem Team am Massachusetts Institute of Technology durchgeführt wurde, wurde untersucht, wie KI wahrgenommene Verstöße gegen einen bestimmten Code interpretieren würde. Sie fanden heraus, dass die effektivsten Daten für die Programmierung von KI normative Daten sind, bei denen Menschen festgestellt haben, ob eine bestimmte Regel verletzt wurde. Viele Modelle werden jedoch fälschlicherweise mit deskriptiven Daten programmiert, bei denen Menschen die faktischen Attribute einer Situation benennen, und die KI bestimmt, ob ein Code verletzt wurde.

In der Studie sammelte das Team Bilder von Hunden, die möglicherweise gegen eine Wohnungsordnung verstoßen könnten, die aggressive Rassen im Gebäude verbietet. Die Gruppen wurden dann gebeten, normative und deskriptive Antworten zu geben.

Das deskriptive Team war nicht über die allgemeinen Richtlinien zu Hunden informiert und wurde gebeten, zu erkennen, ob drei faktische Elemente, wie die Aggressivität des Hundes, in dem Bild oder Text vorhanden waren. Ihre Antworten halfen bei der Urteilsbildung. Wenn ein Benutzer sagte, das Foto zeige einen aggressiven Hund, wurde die Richtlinie als verletzt angesehen. Die normative Gruppe hingegen wurde über die Regeln zu aggressiven Hunden informiert und sollte feststellen, ob das jeweilige Bild gegen die Regel verstößt, und wenn ja, warum.

Bei der deskriptiven Methode war die Wahrscheinlichkeit, dass die Teilnehmer einen Verstoß gegen die Vorschriften erkannten, um 20 % höher als bei der normativen Methode. Wären die deskriptiven Daten über das Verhalten von Hunden zur Programmierung eines KI-Modells verwendet worden, hätte dieses mit größerer Wahrscheinlichkeit schwere Strafen verhängt.

Die Übertragung dieser Ungenauigkeiten auf reale Szenarien könnte erhebliche Auswirkungen haben. Wird unter anderem ein beschreibendes Modell verwendet, um vorherzusagen, ob eine Person dasselbe Verbrechen mehrmals begehen könnte, könnte es härtere Urteile fällen als ein Mensch und zu höheren Kautionsbeträgen oder längeren Strafen führen. Die Experten haben sich daher für eine größere Datentransparenz ausgesprochen und argumentiert, dass das Verständnis der Art und Weise, wie die Daten gesammelt werden, dazu beitragen kann, ihre potenzielle Verwendung zu bestimmen.

“Die meisten Forscher auf dem Gebiet der KI und des maschinellen Lernens gehen davon aus, dass menschliche Urteile in Daten und Etiketten voreingenommen sind. Unsere Ergebnisse weisen jedoch auf ein noch beunruhigenderes Problem hin: Diese Modelle reproduzieren nicht einmal die bereits voreingenommenen menschlichen Urteile, weil die Daten, auf denen sie trainiert werden, fehlerhaft sind”, sagt Marzyeh Ghassemi, Assistenzprofessorin und Leiterin der Healthy ML Group im Computer Science and Artificial Intelligence Laboratory (CSAIL), in einer Mitteilung der Universität.

“Die Lösung besteht darin, anzuerkennen, dass wir, wenn wir das menschliche Urteilsvermögen reproduzieren wollen, nur Daten verwenden sollten, die in diesem Kontext erhoben wurden. Andernfalls werden wir mit Systemen enden, die extrem strenge Maßstäbe anlegen, viel strenger als Menschen es tun würden. Der Mensch würde Nuancen erkennen oder Unterscheidungen treffen, während diese Modelle dies nicht tun”, erklärt Ghassemi weiter.

In der Studie, die in Science Advances veröffentlicht wurde, testete das Team drei weitere Datensätze. Die Ergebnisse waren unterschiedlich und reichten von einer um acht Prozent erhöhten Wahrscheinlichkeit, einen Regelverstoß anhand von beschreibenden Antworten für einen Verstoß gegen die Kleiderordnung zu erkennen, bis zu einer 20-prozentigen Steigerung bei den Bildern von aggressiven Hunden.

“Vielleicht denken die Menschen über Regelverstöße anders als über beschreibende Daten. Im Allgemeinen sind normative Entscheidungen eher nachsichtig”, sagt die Hauptautorin Aparna Balagopalan. “Die Daten sind wirklich wichtig. Es ist wichtig, den Trainingskontext mit dem Einsatzkontext abzugleichen, wenn Modelle zur Erkennung von Regelverstößen trainiert werden.”

In Zukunft will das Team untersuchen, wie sich die Teilnahme von Fachleuten wie Anwälten und Ärzten an der Dateneingabe auswirkt.