Von James Bamford
Denn es sind nicht so sehr die Bomben, die töten, sondern die Liste, die Zivilisten in den Weg der Bomben stellt.
Die Glilot-Kreuzung in der israelischen Stadt Ramat HaSharon ist eine Kreuzung, an der sich die Trans-Samaria-Autobahn mit der Küstenautobahn kreuzt. Sie ist auch ein wichtiger Knotenpunkt für die menschlichen und technischen Spione Israels. Auf der Ostseite der Autobahn befindet sich das Hertzog-Lager und auf der Westseite das Dane-Lager. Zusammen bilden die 462 Hektar Land das Camp Moshe Dayan – die geheimste Militärbasis des Landes.
Umgeben von einer Vielzahl von Vorrichtungen zur Verhinderung von Eindringlingen und hohen Stahlzäunen mit Stacheldraht, beherbergt Camp Dayan eine Reihe hochsensibler Einrichtungen des militärischen Geheimdienstes, darunter die zentrale Ausbildungsbasis, das fortschrittliche Targeting Center, die Einheit 81, eine geheime Technologieeinheit, die der Abteilung für Sondereinsätze unterstellt ist, und das IDF Signals Intelligence College.
Die bei weitem geheimste Einrichtung ist jedoch das Hauptquartier der Einheit 8200, die auf Lauschangriffe, Codeknacken und Cyber-Kriegsführung spezialisiert ist – das israelische Pendant zur amerikanischen National Security Agency. Eine der neuesten und wichtigsten Organisationen der Einheit 8200 ist das Zentrum für Datenwissenschaft und künstliche Intelligenz, das nach Angaben eines Sprechers für die Entwicklung der KI-Systeme verantwortlich war, die „das gesamte Konzept der Ziele in den IDF verändert haben“. Im Jahr 2021 bezeichnete das israelische Militär seinen 11-tägigen Krieg gegen den Gazastreifen als den ersten „KI-Krieg“ der Welt. Israels laufende Invasion des Gazastreifens bietet ein jüngeres – und verheerendes – Beispiel.
Vor mehr als 70 Jahren befand sich auf demselben Stück Land das palästinensische Dorf Ajleel, bis die Bewohner während der Nakba 1948 getötet oder gezwungen wurden, ihre Häuser zu verlassen und aus Angst zu fliehen. Jetzt werden im Camp Moshe Dayan Soldaten und Geheimdienstspezialisten ausgebildet, um die Arbeit zu Ende zu bringen – die Nachkommen der Palästinenser, die vor Jahrzehnten in das Elend des militärisch besetzten Gazastreifens gezwungen wurden, zu bombardieren, zu erschießen oder verhungern zu lassen.
Anfang dieses Monats wurden drei gut gekennzeichnete und genehmigte Hilfsfahrzeuge der World Central Kitchen ins Visier genommen, wobei die sieben Insassen getötet wurden und sichergestellt wurde, dass die Lebensmittel niemals die Hungertoten erreichen würden. Der Beschuss war präzise – die Raketen wurden genau in der Mitte der Dachlogos der Hilfsorganisation platziert. Israel erklärte jedoch, es habe sich lediglich um einen Fehler gehandelt, ähnlich wie bei der „irrtümlichen“ Tötung von fast 200 weiteren Mitarbeitern von Hilfsorganisationen in nur wenigen Monaten – mehr als alle Mitarbeiter von Hilfsorganisationen, die in den letzten 30 Jahren in allen Kriegen der übrigen Welt zusammen getötet wurden, so die Aid Worker Security Database.
Solche schrecklichen „Fehler“ sind schwer zu verstehen, wenn man die enorme Menge an fortschrittlicher KI-Hardware und -Software bedenkt, die dem israelischen Militär und den Spionageagenturen zur Verfügung gestellt wird – einige davon von einem amerikanischen Unternehmen im Besonderen: Palantir Technologies. „Wir stehen zu Israel“, erklärte das in Denver ansässige Unternehmen in Beiträgen auf X und LinkedIn. „Der Vorstand von Palantir wird nächste Woche in Tel Aviv zu seiner ersten Sitzung im neuen Jahr zusammenkommen. Unsere Arbeit in der Region war noch nie so wichtig wie heute. Und sie wird fortgesetzt.“ Als eines der fortschrittlichsten Data-Mining-Unternehmen der Welt mit Verbindungen zur CIA bestand die „Arbeit“ von Palantir darin, Israels Militär und Geheimdienste mit fortschrittlichen und leistungsstarken Zielfähigkeiten zu versorgen – präzise Fähigkeiten, die es Israel ermöglichten, drei von Drohnen abgefeuerte Raketen in drei deutlich gekennzeichneten Hilfsfahrzeugen zu platzieren.
„Ich bin ziemlich ermutigt, was die Talente hier angeht und dass wir die besten Leute bekommen“, sagte Alex Karp, Mitbegründer und CEO des Unternehmens, kurz nach seiner Ankunft in Tel Aviv im vergangenen Januar zu einer Gruppe. „Was ich in Israel sehe, ist diese Mischung aus Talent, das qualitativ und argumentativ ist.“ Unmittelbar nach dem Gespräch reiste Karp zu einem militärischen Hauptquartier, wo er ein verbessertes Abkommen mit dem israelischen Verteidigungsministerium unterzeichnete. „Beide Parteien haben sich darauf geeinigt, die fortschrittliche Technologie von Palantir zur Unterstützung kriegsbezogener Missionen zu nutzen“, sagte Executive Vice President Josh Harris.
Das Projekt umfasste den Verkauf einer Plattform für künstliche Intelligenz an das Ministerium, die auf der Grundlage einer Fülle von geheimen Geheimdienstberichten über Leben und Tod entscheiden kann, welche Ziele angegriffen werden sollen. In einem Understatement gab Karp vor einigen Jahren zu: „Unser Produkt wird gelegentlich eingesetzt, um Menschen zu töten“, dessen Moral er selbst gelegentlich in Frage stellt. „Ich habe mich gefragt: ‚Wenn ich jünger wäre, würde ich dann gegen mich protestieren?’“ Kürzlich beschlossen einige Mitarbeiter von Karp, lieber zu kündigen, als mit einem Unternehmen zu tun zu haben, das den anhaltenden Völkermord in Gaza unterstützt. Und auf dem Londoner Soho Square versammelten sich Dutzende pro-palästinensische Demonstranten und Beschäftigte des Gesundheitswesens vor dem britischen Hauptsitz von Palantir, um das Unternehmen der „Mitschuld“ an Kriegsverbrechen zu beschuldigen.
Die KI-Maschinen von Palantir brauchen Daten als Treibstoff – Daten in Form von Geheimdienstberichten über Palästinenser in den besetzten Gebieten. Und eine wichtige und streng geheime Quelle dieser Daten für Israel ist seit Jahrzehnten die Nationale Sicherheitsbehörde der USA, wie aus Dokumenten hervorgeht, die der NSA-Whistleblower Edward Snowden veröffentlicht hat. Nach seiner Flucht nach Hongkong im Jahr 2013 mit einer Tasche voller Flash-Laufwerke, die einige der strengsten Geheimnisse der Behörde enthielten, landete Snowden in Moskau, wo ich ihn kurz nach seiner Ankunft für das Magazin Wired traf. In dem Interview erzählte er mir, dass „einer der größten Missbräuche“, die er während seiner Zeit bei der NSA beobachtet hatte, darin bestand, dass die NSA Israel heimlich unbearbeitete, nicht redigierte Telefon- und E-Mail-Kommunikation zwischen palästinensischen Amerikanern in den USA und ihren Verwandten in den besetzten Gebieten zur Verfügung stellte. Snowden befürchtete, dass die Palästinenser im Gazastreifen und im Westjordanland durch die Weitergabe dieser privaten Gespräche an Israel in große Gefahr geraten könnten, verhaftet zu werden oder Schlimmeres.
Laut dem Top Secret/Special Intelligence-Abkommen zwischen der NSA und Israel sendet die NSA der ISNU [Israeli SIGINT National Unit] routinemäßig minimierte und unminimierte Rohdaten… als Teil der SIGINT-Beziehung zwischen den beiden Organisationen“. Weiter heißt es: „Raw SIGINT umfasst unter anderem unbewertete und nicht minimierte Transkripte, Gists, Faksimiles, Telex, Voice und Digital Network Intelligence-Metadaten und -Inhalte.“
Jetzt, im laufenden Krieg Israels im Gazastreifen, werden kritische Informationen der NSA von der Einheit 8200 weiter genutzt, um Zehntausende von Palästinensern zu töten – oft mit von den USA gelieferten 2.000-Pfund-Bomben und anderen Waffen. Und es ist eine extrem leistungsfähige Data-Mining-Software, wie die von Palantir, die den IDF bei der Auswahl der Ziele hilft. Das Unternehmen gibt zwar keine operativen Details bekannt, aber einige Hinweise auf die Leistungsfähigkeit und Schnelligkeit seiner KI lassen sich durch die Untersuchung seiner Aktivitäten für einen anderen Kunden im Krieg nachvollziehen: Die Ukraine. Laut Karp ist Palantir „für den größten Teil des Targetings in der Ukraine verantwortlich“. „Von dem Moment an, in dem die Algorithmen ihre Ziele [d. h. Menschen] aufspüren, bis zur Verfolgung [d. h. Tötung] dieser Ziele – ein Kunstbegriff in diesem Bereich – vergehen nicht mehr als zwei oder drei Minuten“, bemerkte Bruno Macaes, ein ehemaliger hochrangiger portugiesischer Beamter, der letztes Jahr eine Führung durch die Londoner Zentrale von Palantir erhielt. „In der alten Welt könnte der Prozess sechs Stunden dauern.
Das Unternehmen entwickelt derzeit ein noch leistungsfähigeres KI-Targeting-System namens TITAN (für „Tactical Intelligence Targeting Access Node“). Laut Palantir ist TITAN eine „Intelligence-, Überwachungs- und Aufklärungs-Bodenstation der nächsten Generation, die durch künstliche Intelligenz und maschinelles Lernen in der Lage ist, Daten aus dem Weltraum, aus großer Höhe, aus der Luft und von der Erde zu verarbeiten.“ Obwohl sie für den Einsatz durch die US-Armee konzipiert wurde, ist es möglich, dass das Unternehmen Prototypen gegen Palästinenser in Gaza testet. „Wie präzise und genau kann man wissen, dass ein System sein wird, wenn es nicht bereits an Menschen trainiert und getestet wurde?“, sagte Catherine Connolly von der Stop Killer Robot Koalition, zu der auch Human Rights Watch und Amnesty International gehören.
Die gründlichste Untersuchung des Zusammenhangs zwischen künstlicher Intelligenz und der großen Zahl unschuldiger palästinensischer Männer, Frauen und Kinder, die von Israel im Gazastreifen abgeschlachtet werden, stammt aus einer Untersuchung, die kürzlich vom Magazin +972 und Local Call veröffentlicht wurde. Obwohl Palantir nicht namentlich erwähnt wird, scheinen die von den Journalisten diskutierten KI-Systeme in dieselbe Kategorie zu fallen. Laut der ausführlichen Untersuchung setzt die Einheit 8200 derzeit ein System namens „Lavender“ ein, um Tausende mutmaßlicher Hamas-Kämpfer ins Visier zu nehmen. Das Magazin berichtet aber auch, dass die israelischen Einsatzregeln vor dem brutalen Angriff am 7. Oktober die Zahl der zulässigen Opfer unter den Nichtkombattanten bei der Bekämpfung eines einzigen mutmaßlichen Hamas-Kämpfers stark einschränkten, dass diese Beschränkungen aber in den letzten Monaten gelockert wurden, so dass für jede angegriffene Person Dutzende von palästinensischen Nichtkombattanten (einschließlich Frauen und Kinder) getötet werden können. Die Warnung von US-Präsident Joe Biden im Dezember, dass Israel wegen seiner „wahllosen Bombardierung“ des Gazastreifens die internationale Unterstützung verliert, scheint keine Wirkung gezeigt zu haben.
In dem Bericht des Magazins +972 wird detailliert beschrieben, wie das israelische Militär leistungsstarke Algorithmen einsetzt, um enorme Mengen an Überwachungsdaten – Telefon-, Text- und digitale Daten – zu sortieren und lange Tötungslisten von Zielen zu erstellen. Hinzu kämen die Daten aus den NSA-Abhörungen von Palästinensern in den Vereinigten Staaten, die mit ihren Familien in Gaza kommunizieren – ein Prozess, der nach Snowdens Ausscheiden aus der NSA fortgesetzt wurde, wie mehrere Quellen berichten.
Im Jahr 2014 – mehr als ein Jahr nachdem Snowden in Moskau aufgetaucht war – waren die Angriffe der Einheit 8200 auf unschuldige Palästinenser in den besetzten Gebieten so extrem, dass sogar 43 Veteranen der Einheit, darunter viele, die in der Reserve dienten, an die Öffentlichkeit gingen und der Organisation erschreckende Übergriffe vorwarfen. Sie erklärten, sie hätten die „moralische Pflicht“, sich nicht länger „an den Aktionen des Staates gegen Palästinenser zu beteiligen“.
In einem Brief an ihre Kommandeure, Premierminister Benjamin Netanjahu und den Chef der israelischen Armee warfen sie Israel vor, die gesammelten Informationen gegen unschuldige Palästinenser für „politische Verfolgung“ zu verwenden. Und in Zeugenaussagen und Interviews, die sie den Medien gegeben haben, gaben sie an, dass Daten über die sexuelle Orientierung von Palästinensern, Untreue, Geldprobleme, den Gesundheitszustand der Familie und andere private Angelegenheiten gesammelt wurden, die dazu verwendet werden könnten, „die Person zu erpressen/bedrohen und sie zu einem Kollaborateur zu machen“ oder Spaltungen in ihrer Gesellschaft zu verursachen.
Vor einigen Jahren veröffentlichte Brigadegeneral Yossi Sariel, der derzeitige Leiter der Einheit 8200, ein Buch, in dem er ein angeblich fiktives und weitreichendes KI-System beschrieb. Doch die Journalisten von +972 und Local Call fanden heraus, dass die superstarke Zielerstellungsmaschine, über die er damals als Fiktion schrieb, tatsächlich existiert. „In den ersten Wochen des Krieges verließ sich die Armee fast vollständig auf Lavender“, schreiben sie, “das bis zu 37.000 Palästinenser als mutmaßliche Kämpfer – und ihre Häuser – für mögliche Luftangriffe auswählte.“ Und von Anfang an wurde kaum versucht, die Tausenden von Namen, die von der „Tötungsliste“ der Maschine generiert wurden, zu überprüfen oder zu rechtfertigen.
„Eine Quelle“, schreiben sie, ‚erklärte, dass menschliches Personal oft nur als ‘Stempel‚ für die Entscheidungen der Maschine diente, und fügte hinzu, dass sie sich normalerweise nur etwa ‘20 Sekunden‘ für jedes Ziel Zeit nehmen, bevor sie eine Bombardierung genehmigen – nur um sicherzustellen, dass das mit Lavendel markierte Ziel männlich ist. Und das, obwohl sie wissen, dass das System in etwa 10 Prozent der Fälle ‚Fehler‘ macht und dafür bekannt ist, dass es gelegentlich Personen markiert, die nur eine lose oder gar keine Verbindung zu militanten Gruppen haben.“
Aber es kommt noch schlimmer. Sie fanden heraus, dass die israelische Armee absichtlich und systematisch die Häuser von Zielpersonen bombardierte – und dabei ganze Familien tötete -, nur weil ein anderer KI-Algorithmus ihnen sagte, dass sich die Person dort befand. „Das Ergebnis“, schreiben sie, “ist, wie die Quellen bezeugen, dass Tausende von Palästinensern – die meisten von ihnen Frauen und Kinder oder Menschen, die nicht in die Kämpfe verwickelt waren – durch israelische Luftangriffe ausgelöscht wurden, vor allem in den ersten Wochen des Krieges, aufgrund der Entscheidungen des KI-Programms.“
Solche Aktionen haben wahrscheinlich dazu beigetragen, dass der Menschenrechtsrat der Vereinten Nationen vor kurzem eine Resolution verabschiedet hat, in der Israel aufgefordert wird, für mögliche Kriegsverbrechen und Verbrechen gegen die Menschlichkeit im Gazastreifen zur Rechenschaft gezogen zu werden. Achtundzwanzig Länder stimmten für die Resolution, nur sechs stimmten dagegen. Dennoch scheint man sich im Weißen Haus und auf dem Capitol Hill wenig Gedanken über die Gefahren von Israels tödlicher Bewaffnung mit künstlicher Intelligenz und die Verbindung dieser Technologie mit der schwindelerregenden Zahl unschuldiger Männer, Frauen, Kinder und ganzer Familien zu machen, die in Gaza massakriert wurden. Die Washingtoner Direktorin von Human Rights Watch, Sarah Yager, sagte gegenüber Politico: „Niemand hat einen Einblick, auch nicht die US-Politiker, wie Israel diesen Krieg führt.“
Seit Jahren haben die Vereinigten Staaten strenge Vorschriften für den Export von Waffensystemen ins Ausland erlassen, weil die Benutzer nicht zur Rechenschaft gezogen werden können, sobald sie im Besitz der Waffen sind, und weil das Potenzial für schwere Kriegsverbrechen besteht. Selbst der CEO von Palantir, Alex Karp, hat argumentiert, dass „die Macht fortschrittlicher algorithmischer Kriegsführungssysteme heute so groß ist, dass sie dem Besitz taktischer Atomwaffen gegen einen Gegner gleichkommt, der nur über konventionelle Waffen verfügt.“ Israels wahlloses Töten im Gazastreifen ist das perfekte Beispiel dafür, warum es an der Zeit ist, auch den Export von KI-Systemen, wie sie von Palantir entwickelt wurden, strenger zu regulieren. Systeme, die, wie Karp vorschlug, das digitale Äquivalent einer Massenvernichtungswaffe sind. Schließlich ist es nicht nur die Bombe, die tötet, sondern auch die Liste, die Sie und Ihre Familie unter die Bombe bringt.