Nahost-Konflikt

Künstliche Intelligenz im Gaza-Krieg: das tödliche virtuelle Labor

+
Die Zielerfassung für diesen Kampfhubschrauber über Gaza könnte eine KI übernehmen – oder übernommen haben.
  • schließen

In Gaza setzen die Israelis verstärkt auf künstliche Intelligenz bei der Suche nach der Hamas. Das ruft Kritik unter Offizieren hervor.

In keinem Gazakrieg wurden so viele Menschen getötet wie in diesem. Israels Armee gibt an, dass der Großteil der Toten keine Zivilpersonen, sondern Hamas-Kämpfer sind. Nach welchen Kriterien wird nun aber entschieden, wer Kämpfer ist und wer nicht?

Die Armee hat im Februar 2023 zugegeben, dass sie sich bei der Auswahl ihrer Beschussziele auf künstliche Intelligenz verlässt. Laut Recherchen israelischer Investigativmedien soll die KI im Gaza-Krieg jedoch eine größere Rolle spielen als bisher angenommen.

Schon vor dem 7. Oktober war bekannt, dass die KI-Maschine „Gospel“ zum Einsatz kommt. Sie erstellt Listen möglicher Angriffsziele – also militärisch genutzte Gebäude und Stellungen. Jetzt soll zusätzlich noch das Programm „Lavender“ verwendet werden, das dem Militär ermöglicht, binnen kurzer Zeit Listen Tausender Zielpersonen vorzulegen, die als Terroristen eingestuft werden.

Laut den Recherchen der israelischen Plattformen „+972“ und „Local Call“, die auch vom britischen „Guardian“ überprüft werden konnten, soll die Armee in der ersten Kriegsphase mittels „Lavender“ rund 37 000 Hamas-Leute identifiziert haben. Das Militär bestätigt dies nicht. Ein Armeesprecher betont, dass stets Menschen die letzte Instanz bei der Auswahl von Schusszielen sind. Jene sechs Offiziere, die mit „+972“ gesprochen haben, stellen es anders dar. Sie entstammen laut Reporter Yuval Avraham allesamt der Militärgeheimdienst-Einheit 8200, die für Informationssammlung und Datenverwertung zuständig ist. „Gospel“ wie „Lavender“ wurden von 8200 entwickelt. Die KI-erstellten Listen dienen Luftwaffe, Marine und Bodentruppen als Grundlage ihrer Einsatzplanung.

Nach der Anfangsphase des Krieges habe die Armee diese Listen stichprobenartig überprüft, sagt Avraham. Man kam zum Ergebnis, dass „Lavender“ in zehn Prozent der Fälle falsch lag und Zivile irrtümlich als Terroristen markierte. Unter 1000 von der Armee getöteten Personen waren demnach 100 Unschuldige. Die Armee soll diese Fehlerquote als „ausreichend gering“ erachtet haben. Von da an, so erzählen die anonymen Quellen, habe man der KI für einige Wochen dann mehr Freiraum gelassen.

Maßgeblich für die hohen Opferzahlen war laut den Offizieren eine Änderung der Feuerrichtlinien, die den Einsatz der KI-Anwendung erst notwendig machte. Das bestätigt auch ein Reservist, der anonym bleiben möchte. In diesem Krieg habe die Armee die Vorschriften gelockert, sagt er. Während es vorher strenge Regeln für den Beschuss von Privathäusern gab, in denen sich auch Zivilpersonen befinden, sei man diesmal weniger strikt. Jetzt sei es möglich, auch Mitglieder der unteren Ebenen im militärischen Arm der Hamas in ihren Privathäusern zu töten. Da der Einsatz von Präzisionsschlägen in so großer Zahl vergleichsweise teuer ist, habe man sich in vielen Fällen für sogenannte „dumb bombs“ entschieden – übersetzt: klassische „dumme Bomben“, die entsprechend unpräzise sind. Sie reißen mit jeder gesuchten Person immer auch eine größere Anzahl anderer mit in den Tod.

Diese Vorwürfe werden von der Armee dementiert. Ein Vergleich der aktuellen Opferzahlen mit den Toten in früheren Gazakriegen legt jedoch nahe, dass man diesmal von einer geringeren Präzision ausgehen kann. Im Gazakrieg 2014 kamen in der palästinensischen Enklave 2300 Menschen ums Leben – in 49 Tagen. Im aktuellen Krieg gab es nach fünfzig Tagen bereits 15 000 Tote. Die israelische Armee erklärte nach 27 Kriegstagen, man habe bereits 12 000 militärische Ziele getroffen. Das sind 444 Ziele pro Tag. Zum Vergleich: Im Gazakrieg 2014 sprach die Armee von 164 Zielen pro Tag.

Die, die den Einsatz künstlicher Intelligenz im Krieg befürworten, argumentieren, dass sie präziser und weniger fehleranfällig sei als menschliches Kalkül. Ein Algorithmus kann zahlreiche Fakten zusammenspannen, um daraus Schlüsse abzuleiten. Ein Mensch hingegen verarbeitet nicht mehr als ein paar Komponenten, bis er zu einer Entscheidung kommt – und dafür braucht er schon sehr viel länger. Im Krieg, wo jede Sekunde zählt, bietet KI entscheidende Vorteile. Wenn die letzte Instanz, wie von den Israelis behauptet, immer der Mensch bleibt, gibt es zwei mögliche Szenarien: entweder der Mensch passt sich dem Tempo der Maschine an – was die Frage aufwirft, wie zuverlässig das dann sein kann. Oder aber, die von der KI vorgelegten Listen werden tatsächlich akribisch verifiziert. Dann verlangsamt man aber den Prozess – und macht den entscheidenden Vorteil der KI zunichte.

Kritiker:innen bemängeln, dass die künstliche Intelligenz nur so etwas wie Pseudo-Objektivität vorgibt. Vereinfacht gesagt: Jeder Algorithmus ist so voreingenommen wie die Menschen, die ihn programmiert haben (weshalb sie eigentlich auch keine eigene Intelligenz besitzen). Anwendungen wie „Lavender“ verknüpfen zig empirische Daten und stricken daraus Personenprofile. In einem letzten Schritt geben sie Handlungsempfehlungen für die Truppe. Laut einer Studie der Stanford University in den USA hat militärische KI die Tendenz, im Zweifel aggressiver vorzugehen, als menschliche Befehlsgebende dies tun würden.

Die Debatte über KI im Krieg ist relativ jung. Da die internationalen Regeln zur Kriegsführung immer erst mit Verzögerung an die technischen Möglichkeiten angepasst werden, gibt es keine Standards dafür, was KI darf und was nicht. Gaza dient somit als eine Art Testlabor – für die Rüstungsentwicklung, aber auch für das internationale Kriegsrecht.

Kommentare