Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Israels KI kann täglich 100 Bombenziele im Gazastreifen ausmachen. Ist das die Zukunft des Krieges?
Atef Safadi/EPA

Israels KI kann täglich 100 Bombenziele im Gazastreifen ausmachen. Ist das die Zukunft des Krieges?

Von Bianca Baggiarini

Letzte Woche wurde bekannt, dass die israelischen Verteidigungskräfte (IDF) ein System der künstlichen Intelligenz (KI) namens Habsora (hebräisch für “Das Evangelium”) zur Auswahl von Zielen im Krieg gegen die Hamas im Gazastreifen einsetzen. Das System wurde Berichten zufolge eingesetzt, um mehr Ziele für Bombardierungen zu finden, um Orte mit Hamas-Aktivisten in Verbindung zu bringen und um die wahrscheinliche Zahl der zivilen Todesopfer im Voraus zu schätzen.

Was bedeutet es, wenn KI-Zielsysteme wie dieses in Konflikten eingesetzt werden? Meine Forschungen zu den sozialen, politischen und ethischen Auswirkungen des militärischen Einsatzes ferngesteuerter und autonomer Systeme zeigen, dass die KI den Charakter des Krieges bereits verändert.

Militärs nutzen ferngesteuerte und autonome Systeme als “Kraftmultiplikatoren”, um die Wirkung ihrer Truppen zu erhöhen und das Leben ihrer Soldaten zu schützen. KI-Systeme können Soldaten effizienter machen und werden wahrscheinlich die Geschwindigkeit und Tödlichkeit der Kriegsführung erhöhen – selbst wenn Menschen auf dem Schlachtfeld immer weniger zu sehen sind und stattdessen aus der Ferne Informationen sammeln und Ziele anvisieren.

Wenn das Militär nach Belieben und mit geringem Risiko für die eigenen Soldaten töten kann, wird sich dann das derzeitige ethische Denken über den Krieg durchsetzen? Oder wird der zunehmende Einsatz von KI auch die Entmenschlichung der Gegner und die Entkopplung zwischen Kriegen und den Gesellschaften, in deren Namen sie geführt werden, verstärken?

KI im Krieg

KI wirkt sich auf allen Ebenen des Krieges aus, von der Unterstützung durch “Intelligenz, Überwachung und Aufklärung”, wie dem Habsora-System der IDF, bis hin zu “tödlichen autonomen Waffensystemen”, die Ziele ohne menschliches Eingreifen auswählen und angreifen können.

Diese Systeme haben das Potenzial, den Charakter des Krieges neu zu gestalten und den Eintritt in einen Konflikt zu erleichtern. Da es sich um komplexe und verteilte Systeme handelt, können sie es auch schwieriger machen, die eigenen Absichten – oder die eines Gegners – im Kontext eines eskalierenden Konflikts zu erkennen.

In diesem Sinne kann KI zu Fehlinformationen oder Desinformation beitragen und in Kriegszeiten gefährliche Missverständnisse hervorrufen und verstärken.

KI-Systeme können die menschliche Tendenz verstärken, den Vorschlägen von Maschinen zu vertrauen (dies wird durch das Habsora-System deutlich, das nach dem unfehlbaren Wort Gottes benannt ist), was zu Unsicherheit darüber führt, wie weit man autonomen Systemen vertrauen kann. Die Grenzen eines KI-Systems, das mit anderen Technologien und mit Menschen interagiert, sind möglicherweise nicht klar, und es gibt möglicherweise keine Möglichkeit zu erkennen, wer oder was seine Ergebnisse “verfasst” hat, egal wie objektiv und rational sie erscheinen mögen.

Maschinelles Lernen in Hochgeschwindigkeit

Eine der vielleicht grundlegendsten und wichtigsten Veränderungen, die wir durch die KI erleben werden, ist die Erhöhung der Geschwindigkeit der Kriegsführung. Dies könnte unser Verständnis von militärischer Abschreckung verändern, das davon ausgeht, dass Menschen die primären Akteure und Quellen von Intelligenz und Interaktion im Krieg sind.

Militärs und Soldaten treffen ihre Entscheidungen mit Hilfe der so genannten “OODA-Schleife” (für Beobachten, Orientieren, Entscheiden, Handeln). Eine schnellere OODA-Schleife kann helfen, den Feind zu überlisten. Ziel ist es, die Entscheidungsfindung nicht durch übermäßiges Nachdenken zu verlangsamen, sondern mit dem immer schnelleren Kriegstempo Schritt zu halten.

Der Einsatz von KI lässt sich also möglicherweise damit rechtfertigen, dass sie riesige Datenmengen interpretieren und synthetisieren, sie verarbeiten und Ergebnisse liefern kann, die die menschliche Kognition bei weitem übertreffen.

Doch wo bleibt der Raum für ethische Überlegungen in einem immer schnelleren und datenzentrierten OODA-Kreislauf, der in sicherer Entfernung vom Kampf stattfindet?

Im Prinzip könnten maschinelle Lernsysteme gezieltere Angriffe und weniger zivile Opfer ermöglichen. Fatima Shbair/AP

Die israelische Zielsicherungssoftware ist ein Beispiel für diese Beschleunigung. Ein ehemaliger IDF-Chef sagte, dass menschliche Geheimdienstanalysten vielleicht 50 Bombenziele im Gazastreifen pro Jahr ausfindig machen, aber das Habsora-System kann 100 Ziele pro Tag ausfindig machen, zusammen mit Echtzeit-Empfehlungen, welche angegriffen werden sollen.

Wie ermittelt das System diese Ziele? Es tut dies durch probabilistische Schlussfolgerungen, die von Algorithmen des maschinellen Lernens bereitgestellt werden.

Algorithmen für maschinelles Lernen lernen durch Daten. Sie lernen, indem sie in riesigen Datenmengen nach Mustern suchen, und ihr Erfolg hängt von der Qualität und Quantität der Daten ab. Sie geben Empfehlungen auf der Grundlage von Wahrscheinlichkeiten ab.

Die Wahrscheinlichkeiten beruhen auf der Übereinstimmung von Mustern. Wenn eine Person genügend Ähnlichkeiten mit anderen Personen aufweist, die als feindliche Kämpfer eingestuft sind, kann sie selbst als Kämpfer eingestuft werden.

Das Problem der KI-gestützten Zielerfassung auf Distanz

Es wird behauptet, dass maschinelles Lernen eine größere Zielgenauigkeit ermöglicht, so dass es leichter ist, unschuldige Menschen nicht zu verletzen und ein angemessenes Maß an Gewalt anzuwenden. Die Idee einer präziseren Ausrichtung von Luftangriffen hat sich jedoch in der Vergangenheit nicht bewährt, wie die hohe Zahl der erklärten und nicht erklärten zivilen Opfer im weltweiten Krieg gegen den Terror zeigt.

Darüber hinaus ist der Unterschied zwischen einem Kombattanten und einem Zivilisten selten eindeutig zu erkennen. Selbst Menschen können häufig nicht erkennen, wer ein Kombattant ist und wer nicht.

An dieser grundlegenden Wahrheit ändert auch die Technik nichts. Soziale Kategorien und Konzepte sind oft nicht objektiv, sondern umstritten oder zeit- und ortsspezifisch. Computer Vision und Algorithmen sind jedoch in vorhersehbaren Umgebungen, in denen die Konzepte objektiv, einigermaßen stabil und in sich konsistent sind, effektiver.

Wird KI den Krieg verschlimmern?

Wir leben in einer Zeit ungerechter Kriege und militärischer Besetzungen, ungeheuerlicher Verstöße gegen die Einsatzregeln und eines beginnenden Wettrüstens angesichts der Rivalität zwischen den USA und China. Vor diesem Hintergrund kann die Einbeziehung von KI in Kriege neue Komplexitäten mit sich bringen, die den Schaden eher verschlimmern als verhindern.

KI-Systeme erleichtern es den Akteuren im Krieg, anonym zu bleiben, und können die Quelle der Gewalt oder die Entscheidungen, die zu ihr führen, unsichtbar machen. Im Gegenzug kann es zu einer zunehmenden Entkopplung zwischen Militärs, Soldaten und Zivilisten und den Kriegen kommen, die im Namen der Nation geführt werden, der sie dienen.

Und in dem Maße, in dem KI im Krieg immer häufiger zum Einsatz kommt, werden die Militärs Gegenmaßnahmen entwickeln, um sie zu untergraben, wodurch ein Kreislauf der eskalierenden Militarisierung entsteht.

Was nun?

Können wir KI-Systeme kontrollieren, um eine Zukunft zu verhindern, in der die Kriegsführung durch eine zunehmende Abhängigkeit von Technologien angetrieben wird, die durch lernende Algorithmen gestützt werden? Es hat sich als schwierig erwiesen, die Entwicklung von KI in jedem Bereich zu kontrollieren, insbesondere durch Gesetze und Vorschriften.

Viele schlagen vor, dass wir bessere Gesetze benötigen, um Systeme, die auf maschinellem Lernen beruhen, zu berücksichtigen, aber selbst das ist nicht einfach zu bewerkstelligen. Algorithmen des maschinellen Lernens sind schwer zu regulieren.