Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Israel wurde besiegt: Der Zusammenbruch seiner KI-Algorithmus-gesteuerten Wunderwaffe

Der israelische Journalist Yuval Abraham hat in einem detaillierten Bericht, der sich auf mehrere Quellen stützt, beschrieben, wie die israelischen Streitkräfte mithilfe eines KI-Targeting-Systems Zehntausende von Menschen im Gazastreifen als verdächtig markiert haben, um sie zu ermorden.

Das Völkerrecht basiert auf der menschlichen Verantwortung und der letztendlichen Rechenschaftspflicht, wenn Menschen andere Menschen töten. Das Recht für bewaffnete Kämpfer ist umfassender, aber die persönliche Verantwortung gilt auch für die Tötung von Zivilisten, Frauen und Kindern.

Was aber, wenn das Töten von einer “Maschine” gesteuert wird – von künstlicher Intelligenz, die auf algorithmischer “Wissenschaft” basiert?

Wird die menschliche Verantwortung für die Tötung “anderer” durch die “wissenschaftliche” Absicht der von KI-Maschinen erstellten Tötungslisten aufgehoben – wenn sie “verrückt” werden?

Das ist die Frage, die sich stellt, wenn die israelischen Streitkräfte die KI “Lavender” einsetzen, um Israel mit Tötungslisten im Gazastreifen zu versorgen.

Der israelische Journalist Yuval Abraham hat einen detaillierten Bericht mit zahlreichen Quellen verfasst, in dem er beschreibt, wie die israelischen Streitkräfte Zehntausende von Menschen im Gazastreifen als verdächtig markierten, indem sie ein KI-Targeting-System mit wenig menschlicher Aufsicht und einer nachsichtigen Opferpolitik einsetzten.

Der Schöpfer des Systems, der derzeitige Kommandeur der israelischen Eliteeinheit 8200, hatte sich zuvor für die Entwicklung einer auf KI und Algorithmen des maschinellen Lernens basierenden “Zielmaschine” ausgesprochen, die in der Hitze eines Krieges schnell riesige Datenmengen verarbeiten kann, um Tausende potenzieller “Ziele” für militärische Angriffe zu generieren.

Wie Abraham ausführlich darlegte,

Offiziell soll das Lavender-System alle mutmaßlichen Aktivisten der militärischen Flügel der Hamas und des Palästinensischen Islamischen Dschihad (PIJ) als potenzielle Bombenziele markieren, auch solche mit niedrigem Rang. Die Quellen erklärten gegenüber +972 und Local Call, dass sich die Armee in den ersten Wochen des Krieges fast ausschließlich auf Lavender verließ, das bis zu 37.000 Palästinenser als mutmaßliche Kämpfer – und ihre Häuser – für mögliche Luftangriffe registrierte.

In der Anfangsphase des Krieges erlaubte die Armee den Offizieren pauschal, die Tötungslisten von Lavender zu übernehmen, ohne gründlich zu prüfen, warum die Maschine diese Entscheidungen traf, oder die nachrichtendienstlichen Rohdaten zu untersuchen, auf denen sie basierten. Eine Quelle gab an, dass menschliche Mitarbeiter oft nur als “Stempel” für die Entscheidungen der Maschine dienten, und fügte hinzu, dass sie sich normalerweise nur etwa “20 Sekunden” mit jedem Ziel beschäftigten, bevor sie einen Bombenangriff genehmigten.

Nur um das klarzustellen: KI-generierter “Genozid” treibt einen Pfahl durch das Herz des humanitären Völkerrechts.

“Das Ergebnis ist, dass Tausende Palästinenser – die meisten von ihnen Frauen und Kinder oder Menschen, die nicht an den Kämpfen beteiligt waren – durch israelische Luftangriffe ausgelöscht wurden, insbesondere in den ersten Wochen des Krieges, aufgrund von Entscheidungen, die durch das KI-Programm getroffen wurden.”

Wer ist also verantwortlich? Wer muss zur Verantwortung gezogen werden?

Das System war von Anfang an fehlerhaft. Die Al-Qassam-Militärkräfte der Hamas operierten von tiefen Tunneln aus, in denen sie ihre Schlafquartiere hatten – all das machte sie für die Gesichtserkennungsprogramme der israelischen Luftaufklärung über Gaza unempfänglich.

Zweitens erklärte ein hochrangiger Beamter von Büro B gegenüber Abraham: “Wir wussten nicht, wer die ‘unteren’ Agenten [an der Oberfläche] waren. Qassam-Kämpfer und Gaza-Zivilisten unterscheiden sich nicht. Es gibt kein Merkmal, das den “Hamas-Mann” von anderen Männern aus Gaza unterscheidet. Lavender identifizierte diese “Zielpersonen” als “Hamas-Mitglieder”, wobei die Grenzen fließend waren: Vielleicht waren sie einmal einer Whatsapp-Gruppe beigetreten, der ein Hamas-Mitglied angehörte, oder sie liehen ihre Handys an ihre Familien aus oder ließen sie zu Hause aufladen.

“Sie wollten, dass wir [die jungen Agenten] automatisch angreifen können. Das ist der Heilige Gral. Sobald man auf Automatik umsteigt, wird die Zielgenerierung verrückt”.

“Quellen zufolge bewertet die Maschine fast jede Person im Gazastreifen auf einer Skala von 1 bis 100 und gibt damit an, wie wahrscheinlich es ist, dass es sich um einen Militanten handelt.

Da ich einige Jahre in Gaza gearbeitet habe, kann ich sagen, dass jeder in Gaza jemanden von der Hamas kennt oder mit ihm gesprochen hat. Die Hamas hat dort 2006 die Wahlen mit überwältigender Mehrheit gewonnen: Fast jeder kann also – auf die eine oder andere Weise – als “zugehörig” bezeichnet werden.

Es kommt noch schlimmer:

“Um 5 Uhr morgens kam [die Luftwaffe] und bombardierte alle Häuser, die wir markiert hatten”, sagte B.. “Wir haben Tausende Mensch getötet. Wir sind sie nicht einzeln durchgegangen – wir haben alles in ein automatisches System eingegeben, und sobald einer [der markierten Personen] zu Hause war, wurde er sofort zum Ziel. Wir bombardierten ihn und sein Haus”.

“Die Armee zog es vor, nur “dumme” Bomben zu benutzen … Man will keine teuren Bomben an unwichtige Leute verschwenden – das ist kostspielig für das Land und es gibt einen Mangel [an diesen Bomben]”, sagte C.

Der Autor des Lavender-Systems, Brigadegeneral Yossi Sariel, hatte in The Human Machine Team (2021) anonym geschrieben, dass die Synergie zwischen “menschlicher und künstlicher Intelligenz unsere Welt revolutionieren wird”. Offensichtlich wurde seine Begeisterung für diese Revolution in der Kriegsführung von der israelischen Führung geglaubt (und auch von einigen in Washington – siehe z.B. diesen Beitrag von John Spencer, Lehrstuhl für Urban Warfare Studies an der Elite-Militärakademie der US-Armee, WestPoint). Daher die wiederholte Behauptung Netanyahus, Israel stehe kurz vor einem “großen Sieg” in Gaza, da 19 der 24 Hamas-Brigaden zerschlagen worden seien. Heute wissen wir, dass das Unsinn war.

KI sollte Israels Geheimwaffe sein. Yossi Sariel (der Erfinder von Lavender) hat kürzlich sein Mea Culpa abgelegt (The Guardian berichtete): In einem Bericht, den der Guardian zitiert, sagen Sariels Kritiker, dass die Priorität, die die Einheit 8200 der “süchtig machenden und aufregenden” Technologie gegenüber altmodischeren Geheimdienstmethoden einräumte, zu einem Desaster geführt habe. Ein langjähriger Beamter sagte dem Guardian, dass die Einheit unter Sariel “der neuen [KI-]Geheimdienstblase gefolgt” sei.

Sariel seinerseits wird zitiert, wie er nach dem 7. Oktober zu seinen Kollegen sagte: “Ich übernehme die Verantwortung für das, was vorgefallen ist, im tiefsten Sinne des Wortes”, sagte er. “Wir waren besiegt. Ich wurde besiegt.”

Ja – und in der Folge wurden Zehntausende unschuldiger Palästinenser, Frauen und Kinder brutal ermordet. Und Gaza wurde in Schutt und Asche gelegt. Yuval Abrahams investigative Reportage sollte dem Internationalen Gerichtshof (IGH) vorgelegt werden, der die Beweise für einen “mutmaßlichen Völkermord” in Gaza untersucht.