Von StudyFinds Staff via Study Finds
Sich auf KI zu verlassen, bedeutet, die Realität so zu verzerren, dass sich alle ihr unterwerfen: „Menschen scheinen einen gefährlichen blinden Fleck zu haben, wenn es darum geht, künstlicher Intelligenz zu vertrauen“, und „selbst in ihrer einfachsten Form hat die KI einen bemerkenswerten Einfluss auf die menschliche Entscheidungsfindung“. Dies ist für jede Gesellschaft mehr als gefährlich.
Dies ist das unvermeidliche Ergebnis des Einsatzes von KI in der Wirtschaft, im Militär oder in der Regierung. Menschen werden faul, wenn sie Entscheidungen treffen müssen, die kritisches Denken erfordern, und nehmen den einfachen Ausweg, sich auf die KI zu verlassen, die „richtig“ liegt. ⁃ Patrick Wood, Editor.
Menschen scheinen einen gefährlichen blinden Fleck zu haben, wenn es darum geht, künstlicher Intelligenz zu vertrauen. Neue Forschungsergebnisse der UC Merced und der Penn State zeigen, dass Menschen selbst in Situationen, in denen es um Leben oder Tod geht, sehr anfällig für den Einfluss von KI sind, selbst wenn die KI offen ihre eigenen Grenzen einräumt. Eine Reihe von Experimenten, die Drohnenkriegsszenarien simulieren, deutet darauf hin, dass wir möglicherweise zu sehr auf die Seite der maschinellen Ehrerbietung fallen, was potenziell gefährliche Folgen haben könnte.
Die in „Scientific Reports“ veröffentlichte Studie umfasste zwei Experimente, in denen untersucht wurde, wie Menschen mit KI-Systemen in simulierten militärischen Drohneneinsätzen interagieren. Die Ergebnisse zeichnen ein besorgniserregendes Bild der menschlichen Anfälligkeit für den Einfluss von KI, insbesondere in unsicheren Situationen. An den beiden Experimenten nahmen 558 Teilnehmer teil (135 in der ersten Studie und 423 in der zweiten), und die Forscher fanden bemerkenswert konsistente Muster von übermäßigem Vertrauen.
„Als Gesellschaft, in der die KI so schnell voranschreitet, müssen wir uns über das Potenzial für übermäßiges Vertrauen Sorgen machen“, so Studienautor Professor Colin Holbrook, Mitglied der Fakultät für Kognitions- und Informationswissenschaften der UC Merced, in einer Stellungnahme.
Das Forschungsteam entwarf seine Experimente so, dass sie die Unsicherheit und den Druck realer militärischer Entscheidungen simulierten. Um ein Gefühl der Ernsthaftigkeit für ihre simulierten Entscheidungen zu erzeugen, zeigten die Forscher den Teilnehmern zunächst Bilder von unschuldigen Zivilisten, darunter auch Kinder, neben den Verwüstungen, die nach einem Drohnenangriff zurückblieben. Sie stellten die Aufgabe als ein Nullsummen-Dilemma dar: Wenn feindliche Ziele nicht identifiziert und eliminiert werden, könnte dies zu zivilen Opfern führen, aber wenn Zivilisten fälschlicherweise als Feinde identifiziert werden, würde dies bedeuten, dass unschuldige Menschen getötet werden.

Die Teilnehmer sahen schnelle Sequenzen von acht Luftbildern, die jeweils nur 650 Millisekunden lang angezeigt wurden und entweder mit feindlichen oder zivilen Symbolen gekennzeichnet waren. Nachdem sie ihre erste Identifizierung vorgenommen hatten, antwortete die KI im Stil eines Gesprächs. „Ja, ich glaube, ich habe auch ein feindliches Häkchen gesehen“, könnte sie sagen. Oder: „Ich stimme nicht zu. Ich glaube, dieses Bild hatte ein Symbol für einen Verbündeten.“ Die Teilnehmer hatten dann zwei Möglichkeiten, ihre Wahl zu bestätigen oder zu ändern, während der Roboter Kommentare wie „Ich hoffe, Sie haben Recht“ oder „Danke, dass Sie Ihre Meinung geändert haben“ hinzufügte.
Das erste Experiment, das in einer Laborumgebung mit Universitätsstudenten durchgeführt wurde, untersuchte, ob eine physische Roboterpräsenz das Vertrauensniveau anders beeinflussen würde als eine virtuelle. In einem Szenario wurde den Teilnehmern im Labor ein menschlicher Androide in voller Größe zur Seite gestellt, der sich in der Taille drehen und auf den Bildschirm gestikulieren konnte. Dieser 1,75 Meter große (etwa 5 Fuß 7 Zoll) Roboter nutzte Mimik, Körpersprache und Gesprächsbeteiligung, um mit den Teilnehmern zu interagieren. Die Vergleichsgruppe interagierte mit demselben Roboter, der auf eine Leinwand projiziert wurde. Überraschenderweise machte die physische Präsenz des Roboters kaum einen Unterschied in der Tendenz der Teilnehmer, seinem Rat zu vertrauen.
Das zweite Experiment wurde online mit einer größeren, demografisch vielfältigeren Gruppe von Teilnehmern durchgeführt, um zu testen, ob sich unterschiedliche Entwicklungsstufen von Robotern auf das Vertrauen auswirken würden. Einige Teilnehmer interagierten mit einem stark anthropomorphen virtuellen Roboter, der menschenähnliche Verhaltensweisen zeigte, während andere mit einer einfachen Computeroberfläche arbeiteten, die lediglich Textantworten anzeigte. Selbst in seiner einfachsten Form hatte die KI einen bemerkenswerten Einfluss auf die menschliche Entscheidungsfindung.
Wenn eine KI mit der ursprünglichen Zielidentifikation einer Person nicht einverstanden war, änderten die Teilnehmer ihre Entscheidungen im ersten Experiment in 58,3 % der Fälle und im zweiten Experiment in 67,3 % der Fälle, obwohl der Rat der KI völlig zufällig war. Noch beunruhigender ist, dass die anfänglichen Entscheidungen der Teilnehmer zwar in etwa 70 % der Fälle richtig waren, ihre endgültige Genauigkeit jedoch auf etwa 50 % sank, nachdem sie dem unzuverlässigen Rat der KI gefolgt waren.
Wenn die KI mit ihrer ersten Einschätzung übereinstimmte, berichteten die Teilnehmer von einem Vertrauenszuwachs von 16 %. Wenn sie jedoch mit der KI nicht übereinstimmten, berichteten diejenigen, die an ihren ursprünglichen Entscheidungen festhielten, von einem Vertrauensverlust von durchschnittlich 9,48 %, selbst wenn ihre ursprüngliche Einschätzung richtig gewesen war. Noch auffälliger war, dass Teilnehmer, die ihre Meinung änderten, um der KI zuzustimmen, keinen signifikanten Vertrauenszuwachs zeigten, was darauf hindeutet, dass sie sich der Maschine unterordneten, obwohl sie weiterhin unsicher waren, ob sie die richtige Wahl getroffen hatten.
Während die menschenähnlichen Schnittstellen etwas höhere Vertrauenswerte generierten (67,9 % gegenüber 65,1 % bei einfachen Schnittstellen), schien der entscheidendere Faktor die wahrgenommene Intelligenz der KI zu sein. Teilnehmer, die ihren KI-Partner als intelligenter einschätzten, neigten eher dazu, sich seinem Urteil zu beugen und gaben ein höheres Vertrauen an, wenn sie ihm zustimmten, unabhängig von seiner physischen oder virtuellen Darstellung.
Die US-Luftwaffe hat bereits KI-Co-Piloten für die Identifizierung von Raketenwerfern während simulierter Missionen getestet, während die Armee KI-gestützte Zielsysteme für unbemannte Fahrzeuge entwickelt. Israel hat Berichten zufolge KI-Systeme eingesetzt, um Bombenziele in dicht besiedelten Gebieten zu identifizieren. Da KI zunehmend tödliche militärische Entscheidungen beeinflusst, wird es immer wichtiger, schädliches Übervertrauen zu verstehen und zu mindern.
Obwohl sich diese Studie auf risikoreiche militärische Entscheidungen konzentrierte, könnten die Ergebnisse auf Szenarien angewendet werden, die vom Einsatz tödlicher Gewalt durch die Polizei bis hin zu Entscheidungen von Rettungssanitätern bei der Triage in Notfällen und sogar zu bedeutenden Veränderungen im Leben wie dem Kauf eines Hauses reichen. In jedem Fall wirft die menschliche Tendenz, sich der KI-Führung zu unterwerfen, selbst wenn ausdrücklich vor ihren Grenzen gewarnt wird, ernsthafte Bedenken hinsichtlich der Umsetzung auf.
Die Studie ergab auch, dass die Teilnehmer ihre Entscheidungen weniger wahrscheinlich rückgängig machten, wenn sie ein Ziel zunächst als Zivilist und nicht als Feind identifiziert hatten. Dies deutet darauf hin, dass Menschen in realen Anwendungen möglicherweise resistenter gegen den Einfluss von KI sind, wenn es um Handlungen geht, die unschuldigen Menschen schaden könnten. Dieser Schutzinstinkt reichte jedoch nicht aus, um eine erhebliche Verschlechterung der allgemeinen Entscheidungsgenauigkeit zu verhindern, wenn man dem Rat der KI folgte.
„Wir sehen, dass KI außergewöhnliche Dinge vollbringt, und wir denken, dass sie, weil sie in diesem Bereich erstaunlich ist, auch in einem anderen Bereich erstaunlich sein wird“, sagt Holbrook. “Das können wir nicht voraussetzen. Es handelt sich immer noch um Geräte mit begrenzten Fähigkeiten.“
Unsere Bereitschaft, KI zu vertrauen, könnte unsere Weisheit dabei übertreffen. Laut Forschern liegt die Lösung darin, eine konsequente Skepsis zu bewahren. Holbrook betont, dass eine gesunde Skepsis gegenüber KI unerlässlich ist, insbesondere wenn es um solch gewichtige Entscheidungen geht. Da Systeme der künstlichen Intelligenz zunehmend in Entscheidungsprozesse mit weitreichenden Folgen integriert werden, ist es von entscheidender Bedeutung, unsere Tendenz, ihnen zu sehr zu vertrauen, zu verstehen und zu mildern, um potenziell katastrophale Folgen zu verhindern.


