Unabhängige Analysen und Informationen zu Geopolitik, Wirtschaft, Gesundheit, Technologie

Todesstern Erde. Rüstung und Krieg als Wirtschaftsfaktor. Bild: Star Wars Death Star

Die Invasion in der Ukraine hat die Streitkräfte dazu veranlasst, ihre Waffenarsenale aufzurüsten – und das Silicon Valley wird davon profitieren

Das Silicon Valley ist den Streitkräften der Welt näher denn je. Und es sind nicht nur große Unternehmen, sondern auch Start-ups, die sich einbringen wollen.

Der Krieg in der Ukraine hat das Bestreben, mehr KI-Tools auf das Schlachtfeld zu bringen, noch verstärkt. Diejenigen, die am meisten davon profitieren, sind Start-ups wie Palantir, die hoffen, davon zu profitieren, wenn die Streitkräfte ihre Waffenarsenale mit den neuesten Technologien aufrüsten. Die seit Langem bestehenden ethischen Bedenken hinsichtlich des Einsatzes von KI in der Kriegsführung werden jedoch immer dringlicher, da die Technologie immer fortschrittlicher wird, während die Aussicht auf Beschränkungen und Vorschriften für ihren Einsatz so unwahrscheinlich wie nie zuvor erscheint.

Am 30. Juni 2022 kündigte die NATO die Einrichtung eines Innovationsfonds in Höhe von 1 Milliarde Dollar an, der in Start-ups und Risikokapitalfonds in der Frühphase der Entwicklung “vorrangiger” Technologien wie künstliche Intelligenz, Big-Data-Verarbeitung und Automatisierung investieren soll.

Laut einem Bericht des Georgetown Centre for Security and Emerging Technologies gibt das chinesische Militär wahrscheinlich mindestens 1,6 Milliarden Dollar pro Jahr für künstliche Intelligenz aus, und in den USA ist bereits ein erheblicher Vorstoß im Gange, um die Parität zu erreichen, so Lauren Kahn, wissenschaftliche Mitarbeiterin des Council on Foreign Relations. Das US-Verteidigungsministerium hat für das Jahr 2022 874 Millionen Dollar für künstliche Intelligenz beantragt, obwohl diese Zahl nicht die Gesamtheit der KI-Investitionen des Ministeriums widerspiegelt, wie es in einem Bericht vom März 2022 heißt.

Nicht nur das US-Militär ist von der Notwendigkeit überzeugt. Auch europäische Länder, die bei der Einführung neuer Technologien eher zurückhaltend sind, geben mehr Geld für KI aus, sagt Heiko Borchert, Co-Direktor des Defence AI Observatory an der Helmut-Schmidt-Universität in Hamburg, Deutschland.

Die Franzosen und die Briten haben KI als eine Schlüsseltechnologie für die Verteidigung identifiziert, und die Europäische Kommission, die Exekutive der EU, hat 1 Milliarde Dollar für die Entwicklung neuer Verteidigungstechnologien bereitgestellt.

Seit Beginn des Krieges hat das Vereinigte Königreich eine neue KI-Strategie speziell für die Verteidigung auf den Weg gebracht, und die Deutschen haben im Rahmen einer Finanzspritze von 100 Milliarden Dollar für das Militär knapp eine halbe Milliarde für Forschung und künstliche Intelligenz vorgesehen.

In einer vage formulierten Pressemitteilung verkündete die britische Armee im Jahr 2021 stolz, dass sie zum ersten Mal KI in einer Militäroperation eingesetzt hat, um Informationen über die Umgebung und das Terrain zu liefern. Die USA arbeiten mit Start-ups zusammen, um autonome Militärfahrzeuge zu entwickeln. In Zukunft könnten sich Schwärme von Hunderten oder gar Tausenden von autonomen Drohnen, die das amerikanische und das britische Militär entwickeln, als mächtige und tödliche Waffen erweisen.

Viele Experten sind besorgt. Meredith Whittaker, leitende Beraterin für KI bei der Federal Trade Commission und Fakultätsleiterin am AI Now Institute, ist überzeugt, dass es bei diesem Vorstoß eher um die Bereicherung von Technologieunternehmen als um die Verbesserung militärischer Operationen geht.

In einem gemeinsam mit Lucy Suchman, Soziologieprofessorin an der Lancaster University, verfassten Beitrag für das Prospect Magazine argumentiert sie, dass die KI-Befürworter die Rhetorik des Kalten Krieges schüren und versuchen, ein Narrativ zu schaffen, das Big Tech als “kritische nationale Infrastruktur” darstellt, die zu groß und wichtig ist, um sie zu zerschlagen oder zu regulieren. Sie warnen davor, dass die Übernahme von KI durch das Militär als unausweichlich dargestellt wird und nicht als das, was sie tatsächlich ist: eine aktive Entscheidung, die ethische Komplexität und Kompromisse beinhaltet.

Trotz des stetigen Vormarschs der KI auf dem Schlachtfeld sind die ethischen Bedenken, die zu den Protesten gegen das Projekt Maven geführt haben, nicht verschwunden. Das Projekt Maven des Pentagons war ein Versuch, Bilderkennungssysteme zur Verbesserung von Drohnenangriffen zu entwickeln. Google zog sich 2018 nach Mitarbeiterprotesten und Empörung aus dem Projekt Maven zurück.

[Weitere Lektüre: Geheimdienst übernimmt Project Maven, das KI-Projekt des Pentagons, C4ISRNET, 27. April 2022]

Es gab einige Bemühungen, diese Bedenken zu zerstreuen. Das US-Verteidigungsministerium ist sich bewusst, dass es ein Vertrauensproblem hat, und hat Richtlinien für “verantwortungsvolle künstliche Intelligenz” für KI-Entwickler herausgegeben. Die NATO hat eine KI-Strategie, die freiwillige ethische Richtlinien für ihre Mitgliedsstaaten enthält.

In all diesen Leitlinien werden die Streitkräfte aufgefordert, KI so einzusetzen, dass sie rechtmäßig, verantwortungsbewusst, zuverlässig und nachvollziehbar ist, und die in den Algorithmen enthaltenen Verzerrungen abzuschwächen.

Eines der Schlüsselkonzepte ist, dass der Mensch immer die Kontrolle über KI-Systeme behalten muss. Mit der Weiterentwicklung der Technologie wird dies jedoch nicht mehr möglich sein, sagt Kenneth Payne, Leiter der Forschungsabteilung für Verteidigungsstudien am King’s College London und Autor des Buches “I, Warbot: The Dawn of Artificially Intelligent Conflict”.

“Der Sinn eines autonomen [Systems] besteht darin, dass es eine Entscheidung schneller und genauer treffen kann als ein Mensch, und zwar in einem Umfang, den ein Mensch nicht leisten kann”, sagt er. “Man legt sich selbst Steine in den Weg, wenn man sagt ‘Nein, wir werden jede einzelne Entscheidung anwaltlich überprüfen lassen’.”

Es gibt eine weltweite Kampagne mit dem Namen Stop Killer Robots, die sich für ein Verbot von tödlichen autonomen Waffen wie Drohnenschwärmen einsetzt. Aktivisten, hochrangige Vertreter wie UN-Chef António Guterres und Regierungen wie die neuseeländische argumentieren, dass autonome Waffen zutiefst unethisch sind, weil sie Maschinen die Kontrolle über Entscheidungen über Leben und Tod geben und durch algorithmische Voreingenommenheit marginalisierten Gemeinschaften unverhältnismäßig schaden könnten.

Schwärme von Tausenden von autonomen Drohnen zum Beispiel könnten im Grunde zu Massenvernichtungswaffen werden. Die Einschränkung dieser Technologien wird ein harter Kampf sein, denn die Idee eines weltweiten Verbots stößt auf den Widerstand großer Militärausgeber wie der USA, Frankreichs und Großbritanniens.

Letztlich wirft die neue Ära der militärischen KI eine ganze Reihe schwieriger ethischer Fragen auf, auf die wir noch keine Antworten haben.

Eine dieser Fragen ist, wie automatisiert die Streitkräfte überhaupt sein sollen, sagt Payne. Einerseits könnten KI-Systeme die Zahl der Opfer verringern, indem sie Kriege gezielter führen, andererseits würden sie aber auch “effektiv eine Roboter-Söldnertruppe schaffen, die in Ihrem Namen kämpft”, sagt er.

Die obigen Ausführungen sind Auszüge aus einem Artikel mit dem Titel “Why business is booming for military AI startups”, der am 7. Juli 2022 in der MIT Technology Review veröffentlicht wurde. Lesen Sie den vollständigen Artikel HIER.