Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Künstliche Intelligenz entscheidet über Leben und Tod in Gaza

Gaza als Testgelände: Israels KI-Krieg wirft schwere ethische Fragen auf

Al Mayadeen / New York Times

Im Schatten des Krieges in Gaza entwickelt sich ein beispielloses militärisches Experiment: Die israelische Besatzungsmacht setzt im besetzten Gebiet neue Technologien der Künstlichen Intelligenz (KI) ein – und zwar in einem Ausmaß, das weltweit für Aufsehen und Besorgnis sorgt. Die Technologie dient nicht nur der Zielerfassung, sondern auch der Gesichtserkennung, Sprachanalyse und der automatisierten Tötung von Menschen.

Laut New York Times hat „Israel“ in den vergangenen 18 Monaten KI in fast alle Ebenen der militärischen Entscheidungsfindung integriert. Der Fall des Hamas-Kommandeurs Ibrahim Biari, der Ende 2023 mithilfe eines KI-gestützten Audiosystems geortet und gezielt getötet wurde, ist nur ein Beispiel. Die Aktion forderte mehr als 125 zivile Todesopfer – und zeigt: KI-Krieg ist keine Zukunftsmusik, sondern brutale Gegenwart.

Die KI kommt – mit amerikanischer Hilfe

Die Systeme wurden in enger Zusammenarbeit zwischen der israelischen Einheit 8200 (militärischer Geheimdienst) und Reservisten großer US-Techkonzerne wie Google, Microsoft und Meta entwickelt. Der Knotenpunkt: ein Innovationszentrum mit dem bezeichnenden Namen „The Studio“.

Zum Einsatz kommen Systeme, die arabische Sprache analysieren, Gesichter erkennen und potenzielle „Ziele“ automatisiert bewerten. Laut mehreren US- und israelischen Quellen führte dies jedoch wiederholt zu Fehlidentifikationen, willkürlichen Verhaftungen und zivilen Todesfällen.

Gaza: ein global einzigartiges Echtzeit-Testlabor

Verteidigungsexperten aus Europa und den USA bestätigen: Kein anderes Militär testet KI so offensiv in realen Kampfsituationen wie Israel. Für viele sei Gaza daher ein Live-Testgelände, in dem neue Technologien ohne politische oder juristische Einschränkungen angewendet werden – mit tödlichen Konsequenzen für die Zivilbevölkerung.

Die israelische Expertin Hadas Lorber warnt:

„Diese Technologien werfen ernsthafte ethische Fragen auf. Sie brauchen Kontrolle, menschliche Aufsicht – und vor allem Rechenschaft.“

Drohnen, KI-Spracherkennung und autonome Zielerfassung

Nach Beginn der Gaza-Offensive stellte Israel hochauflösende Kameras an Grenzübergängen auf, die Fotos von Palästinensern machen und mit einem KI-Gesichtserkennungssystem abgleichen. Laut zwei israelischen Geheimdienstmitarbeitern kam es dabei mehrfach zu Fehlerkennungen und anschließenden Festnahmen Unschuldiger.

Auch die Drohnenflotte wurde mit KI-Systemen aufgerüstet. Diese erkennen und verfolgen Ziele autonom. Gleichzeitig entstanden arabischsprachige KI-Modelle, die Gespräche auswerten und in die Zielauswahl einfließen lassen.

Die Datenbank „Lavender“ – 37.000 „Ziele“

Im April 2024 berichteten Geheimdienstquellen, dass das israelische Militär eine neue KI-Datenbank namens „Lavender“ nutzte. Diese identifizierte 37.000 mutmaßliche Ziele, die angeblich Verbindungen zum palästinensischen Widerstand haben sollten.

Interne Quellen berichten, dass gezielt auch die Tötung von Zivilisten genehmigt wurde – insbesondere in den ersten Wochen der Bombardierungen.

„Die Maschine hat es kaltblütig getan. Und das machte es einfacher“, erklärte ein beteiligter Geheimdienstoffizier.

Ein anderer Soldat ergänzte:

„Ich investierte 20 Sekunden pro Ziel – jeden Tag erledigte ich Dutzende davon. Als Mensch hatte ich keinen Mehrwert, ich war nur noch ein Absegler.“

Diese Aussagen wurden vom israelischen Journalisten Yuval Abraham recherchiert und im +972 Magazine sowie bei Local Call veröffentlicht.

Menschenleben per Algorithmus: Ein ethisches Desaster

Während „Israel“ öffentlich behauptet, die Systeme würden helfen, Zivilisten zu schützen, zeigen reale Fälle das Gegenteil:
Die Kombination aus automatisierter Entscheidung, mangelnder menschlicher Kontrolle und fehlender Transparenz führt zu einem Szenario, in dem Algorithmen über Leben und Tod entscheiden – und Fehler systematisch in Kauf genommen werden.

Laut Human Rights Watch verstößt der Einsatz dieser Technologien gegen das humanitäre Völkerrecht, da er zivile Opfer maximiert statt sie zu minimieren. Die gezielte Tötung Tausender Zivilisten auf Basis statistischer Annahmen, Datenkorrelationen und automatischer Identifikatoren sei kein bedauerlicher Nebeneffekt, sondern ein Systemelement dieser KI-Kriegsführung.

Fazit: Gaza als Vorbote eines KI-gestützten Überwachungskriegs

Der Einsatz von KI durch die israelische Besatzungsarmee offenbart eine neue Dimension der modernen Kriegsführung – eine, in der technologische Effizienz die ethische Verantwortung verdrängt.

Was in Gaza geschieht, könnte ein düsteres Vorbild für zukünftige Konflikte sein.
Denn wenn Algorithmen bestimmen, wer lebt und wer stirbt, ist die Frage nicht mehr, ob ein Fehler geschieht – sondern wie viele Menschenleben er kostet.