Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Gaza: KI verändert die Geschwindigkeit, das Ausmaß und den Schaden moderner Kriegsführung
Israel setzt KI-gesteuerte Systeme für den Beschuss von Zielen in Gaza ein. Bild: X Screengrab

Gaza: KI verändert die Geschwindigkeit, das Ausmaß und den Schaden moderner Kriegsführung

Israel verlässt sich auf KI-gestützte Entscheidungssysteme, um Ziele im Gazastreifen zu identifizieren und zu treffen, trotz einer angeblichen Ungenauigkeitsrate von 10%.

Die israelischen Luftangriffe auf den Gazastreifen, die nach den Terroranschlägen der Hamas am 7. Oktober in den sechsten Monat gehen, werden von Experten als eine der erbarmungslosesten und tödlichsten Kampagnen der jüngeren Geschichte bezeichnet. Sie ist auch eine der Ersten, die teilweise von Algorithmen koordiniert wird.

Künstliche Intelligenz (KI) wird in allen Bereichen eingesetzt, von der Identifizierung und Priorisierung von Zielen bis hin zur Zuweisung von Waffen, die gegen diese Ziele eingesetzt werden sollen.

Akademische Kommentatoren haben sich lange Zeit auf das Potenzial von Algorithmen in der Kriegsführung konzentriert und betont, wie sie die Geschwindigkeit und das Ausmaß von Kampfhandlungen erhöhen werden. Jüngste Enthüllungen zeigen jedoch, dass Algorithmen nun in großem Maßstab und in dicht besiedelten städtischen Gebieten eingesetzt werden.

Dazu gehören die Konflikte im Gaza-Streifen und in der Ukraine, aber auch im Jemen, im Irak und in Syrien, wo die USA im Rahmen des Projekts Maven mit Algorithmen experimentieren, um potenzielle Terroristen gezielt aufzuspüren.

Inmitten dieser Beschleunigung ist es von entscheidender Bedeutung, sorgfältig zu prüfen, was der Einsatz von KI in der Kriegsführung tatsächlich bedeutet. Es ist wichtig, dies nicht aus der Perspektive der Machthaber zu tun, sondern aus der Perspektive der Offiziere, die sie einsetzen, und der Zivilisten, die ihre gewalttätigen Auswirkungen in Gaza erleben.

Dieser Schwerpunkt verdeutlicht die Grenzen menschlicher Kontrolle als ausfallsichere und zentrale Antwort auf den Einsatz von KI im Krieg. Mit zunehmender Computerisierung der KI-gestützten Zielerfassung nimmt die Geschwindigkeit der Zielerfassung zu, die menschliche Kontrolle ab und das Ausmaß der zivilen Schäden zu.

Geschwindigkeit der Zielerfassung

Berichte in den israelischen Publikationen +927 Magazine und Local Call geben Einblick in die Erfahrungen von 13 israelischen Offizieren, die im Gazastreifen mit drei KI-gestützten Entscheidungssystemen namens “Gospel”, “Lavender” und “Where’s Daddy?” arbeiten.

Diese Systeme sollen darauf trainiert worden sein, Merkmale zu erkennen, von denen angenommen wird, dass sie Personen charakterisieren, die mit dem militärischen Arm der Hamas in Verbindung stehen. Zu diesen Merkmalen gehören die Mitgliedschaft in derselben WhatsApp-Gruppe wie ein bekannter Kämpfer, der Wechsel des Mobiltelefons alle paar Monate oder häufige Adressänderungen.

Die Systeme sollen dann Daten auswerten, die durch Massenüberwachung der 2,3 Millionen Einwohner des Gazastreifens gesammelt wurden. Anhand der vorgegebenen Merkmale sagen die Systeme voraus, wie wahrscheinlich es ist, dass eine Person Mitglied der Hamas ist (Lavendel), dass ein Gebäude eine solche Person beherbergt (Gospel) oder eine solche Person das Haus betreten hat (Whre is Daddy?).

In den oben genannten Untersuchungsberichten erklärten Geheimdienstmitarbeiter, wie Gospel ihnen geholfen habe, “von 50 Zielen pro Jahr” auf “100 Ziele an einem Tag” zu kommen – und dass Lavender es geschafft habe, “37.000 Personen als potenzielle menschliche Ziele zu generieren”. Sie haben auch darüber nachgedacht, wie der Einsatz von KI die Denkzeit verkürzt: “In diesem Stadium würde ich 20 Sekunden für jedes Ziel investieren … ich hatte keinen Mehrwert als Mensch … es sparte eine Menge Zeit.”

Sie begründeten diesen Mangel an menschlicher Aufsicht mit einer manuellen Überprüfung, die die israelischen Verteidigungskräfte (IDF) in den ersten Wochen des Gaza-Konflikts an einer Stichprobe von mehreren Hundert von Lavender generierten Zielen durchführten und bei der Berichten zufolge eine Trefferquote von 90 Prozent erzielt wurde.

Obwohl die Einzelheiten dieser manuellen Überprüfung wahrscheinlich geheim bleiben werden, ist eine Ungenauigkeitsrate von 10 % bei einem System, das 37.000 Entscheidungen über Leben und Tod trifft, unweigerlich eine verheerende Realität.

Wichtig ist jedoch, dass jede Zahl, die einigermaßen genau erscheint, die Wahrscheinlichkeit erhöht, sich auf die algorithmische Zielerfassung zu verlassen, da sie Vertrauen in das KI-System schafft. Ein IDF-Offizier erklärte gegenüber dem Magazin +927: “Aufgrund des Umfangs und der Größenordnung war das Protokoll, dass man zwar nicht sicher sein konnte, dass die Maschine richtig lag, aber man wusste, dass sie statistisch gesehen richtig lag. Also macht man es”.

Die IDF dementierten die Enthüllungen in einer offiziellen Stellungnahme gegenüber The Guardian. Ein Sprecher sagte, dass die IDF zwar “Informationsmanagement-Tools […] einsetzt, um Geheimdienstanalysten bei der Sammlung und optimalen Analyse von Informationen aus einer Vielzahl von Quellen zu unterstützen, aber kein KI-System zur Identifizierung terroristischer Akteure verwendet”.

Der Guardian hat jedoch inzwischen ein Video veröffentlicht, in dem ein hochrangiger Mitarbeiter des israelischen Elitegeheimdienstes Unit 8200 im vergangenen Jahr über den Einsatz des “Zauberpulvers” maschinellen Lernens bei der Identifizierung von Hamas-Zielen im Gazastreifen spricht.

Die Zeitung bestätigte auch, dass der Kommandeur derselben Einheit im Jahr 2021 unter einem Pseudonym schrieb, dass solche KI-Technologien “den menschlichen Engpass sowohl bei der Lokalisierung neuer Ziele als auch bei der Entscheidungsfindung zur Genehmigung der Ziele” beseitigen würden.

Ausmaß der zivilen Schäden

Künstliche Intelligenz beschleunigt die Kriegsführung in Bezug auf die Anzahl der Ziele und die Zeit, in der über sie entschieden wird.

Diese Systeme verringern zwar die Fähigkeit des Menschen, die Gültigkeit der computergenerierten Ziele zu kontrollieren, lassen aber gleichzeitig diese Entscheidungen objektiver und statistisch korrekter erscheinen, da wir computergestützten Systemen und ihren Ergebnissen im Allgemeinen einen höheren Wert beimessen.

Dies ermöglicht eine weitere Normalisierung des maschinellen Tötens, was zu mehr und nicht weniger Gewalt führt.

Während in der Medienberichterstattung oft die Zahl der Opfer im Vordergrund steht, neigen Zählungen von Leichen – ähnlich wie bei computergenerierten Zielen – dazu, die Opfer als zählbare Objekte darzustellen. Dies verstärkt ein sehr steriles Bild des Krieges.

Es beschönigt die Realität von mehr als 34.000 Toten, 766.000 Verletzten, der Zerstörung oder Beschädigung von 60% der Gebäude im Gazastreifen, den Vertriebenen und dem fehlenden Zugang zu Strom, Nahrung, Wasser und Medikamenten.

Der Bericht geht nicht auf die schrecklichen Geschichten ein, die zeigen, wie sich diese Dinge gegenseitig verstärken können. So wurde unter anderem die Zivilistin Shorouk al-Rantisi nach einem Luftangriff auf das Flüchtlingslager Jabalia unter den Trümmern gefunden, musste 12 Tage ohne Schmerzmittel auf eine Operation warten und lebt nun in einem anderen Flüchtlingslager ohne fließendes Wasser, um ihre Wunden zu waschen.

Algorithmische Kriegsführung erhöht nicht nur die Geschwindigkeit der Zielerfassung und verschlimmert damit die vorhersehbaren Muster ziviler Schäden in der urbanen Kriegsführung, sondern wird wahrscheinlich auch auf neue und bisher nicht ausreichend erforschte Weise Schaden anrichten. Erstens: Wenn Zivilisten aus ihren zerstörten Häusern fliehen, ändern sie häufig ihre Adressen oder geben ihre Telefonnummern an Verwandte weiter.

Ein solches Überlebensverhalten passt zu den Berichten über Lavender, wonach das KI-System so programmiert wurde, dass es eine mögliche Verbindung zur Hamas erkennt. Dadurch werden Zivilisten unwissentlich zum Ziel tödlicher Angriffe.

Diese KI-gestützten Systeme werden nicht nur zur gezielten Bekämpfung, sondern auch für andere Formen der Gewalt eingesetzt. Ein anschauliches Beispiel ist der Fall des geflüchteten Dichters Mosab Abu Toha, der angeblich an einem Militärkontrollpunkt festgenommen und gefoltert wurde.

Die New York Times berichtete schließlich, dass er zusammen mit Hunderten anderer Palästinenser durch den Einsatz von KI-Gesichtserkennung und Google-Fotos von der israelischen Armee fälschlicherweise als Hamas-Mitglied identifiziert wurde.

Abgesehen von den Toten, Verletzten und Zerstörungen sind dies die zunehmenden Auswirkungen der algorithmischen Kriegsführung. Sie wird zu einem psychologischen Gefängnis, in dem die Menschen wissen, dass sie ständig überwacht werden, aber nicht wissen, auf welches Verhalten oder welche körperlichen “Merkmale” die Maschine reagieren wird.

Aus unserer Arbeit als Analysten des Einsatzes von KI in der Kriegsführung wissen wir, dass wir uns nicht nur auf die technischen Fähigkeiten von KI-Systemen oder die Figur des Menschen in der Schleife als Ausfallbürgen konzentrieren dürfen.

Wir müssen auch die Fähigkeit dieser Systeme in Betracht ziehen, die Interaktionen zwischen Mensch und Maschine zu verändern, in denen diejenigen, die algorithmische Gewalt ausüben, lediglich die vom KI-System generierten Ergebnisse absegnen, während diejenigen, die der Gewalt ausgesetzt sind, auf beispiellose Weise entmenschlicht werden.

*

Lauren Gould ist Assistenzprofessorin für Konfliktforschung an der Universität Utrecht; Linde Arentze ist Forscherin für KI und ferngesteuerte Kriegsführung am NIOD Institute for War, Holocaust and Genocide Studies; Marijn Hoijtink ist außerordentlicher Professor für Internationale Beziehungen an der Universität Antwerpen.