Noch immer entscheiden Soldaten, wer als Angriffsziel definiert wird und was als verhältnismässig gilt. Doch KI wird wichtiger.
![Eine KI hilft der israelischen Armee dabei, Ziele im Gazastreifen zu identifizieren.](https://adaglobalconcept.com/wp-content/uploads/2024/12/Israel-setzt-auf-KI-bei-der-Zielidentifikation.jpeg)
Eine KI hilft der israelischen Armee dabei, Ziele im Gazastreifen zu identifizieren.
Künstliche Intelligenz revolutioniert die Kriegsführung. Streitkräfte hoffen, mithilfe von Daten und Algorithmen genauer und effizienter vorgehen zu können. Zugleich geht die Angst vor autonomen Killermaschinen um, die selbständig über Leben und Tod entscheiden.
Wie der Einsatz von künstlicher Intelligenz (KI) im Krieg aussehen kann, zeigt der Gazakrieg. Eine Recherche des linken israelischen Magazins «+972» hat nun eine Diskussion ausgelöst. Laut dem Magazin hat Israels Armee die Vorschläge der KI für Bombardierungen nicht eingehend überprüft und viele zivile Opfer in Kauf genommen.
«+972» zeichnet das Bild einer automatisierten Tötungsmaschinerie, getrieben von einer fehlerhaften KI-Software. Doch stimmt dieses Bild?
Dass die israelische Armee KI-gestützte Systeme einsetzt, etwa um Angriffsziele zu identifizieren, ist unbestritten. Bereits im Mai 2021 verwendeten die Streitkräfte im Gazastreifen ein Programm namens «The Gospel», das Empfehlungen für Ziele abgibt.
KI-Programme dienten im Krieg gegen die Hamas 2021 auch dazu, die Befehlshaber von Terrorzellen zu identifizieren und zu orten, wie ein israelischer Offizier im vergangenen Jahr an einer Konferenz berichtete. Bereits damals war von einem «KI-Krieg» die Rede.
Nur zwanzig Sekunden, um ein Ziel zu überprüfen?
Die entscheidende Frage ist aber, was die Rahmenbedingungen für den Einsatz der KI-Systeme sind. Der Bericht von «+972» erhebt dazu schwere Vorwürfe gegen die israelische Armee. Das Magazin ist für seine Kritik an Israels Besatzungspolitik bekannt und eckt damit auch im eigenen Land an. Für den Bericht stützt es sich auf die Aussagen von sechs anonymen Angehörigen der Streitkräfte.
Israel hat laut «+972» ein Programm namens «Lavender» entwickelt, das aufgrund von Informationen über die Einwohner des Gazastreifens eine Wahrscheinlichkeit errechnet, mit der eine Person dem militärischen Flügels der Hamas oder dem Palästinensischen Islamischen Jihad angehört. Dazu vergleicht es die Daten mit charakteristischen Mustern bekannter Terroristen.
Schätzt die KI-Software eine Person als Terroristen ein, wird sie zum möglichen Ziel für eine Bombardierung. Die Überprüfung, ob die Einschätzung der KI korrekt ist, fällt laut «+972» nur sehr oberflächlich aus. Dabei soll die Fehlerquote von «Lavender» bei zehn Prozent liegen: Das System schlägt also in zehn Prozent der Fälle Menschen als Ziele vor, die nichts mit der Hamas zu tun haben.
Eine anonyme Quelle sagte gegenüber «+972», die Überprüfung eines Zieles habe in der Regel nur zwanzig Sekunden gedauert. Dass diese Angabe tatsächlich für alle Einheiten und für die gesamte Dauer des Gazakriegs zutrifft, ist zu bezweifeln. Vorstellbar ist, dass es Phasen besonders intensiver militärischer Aktivität gab, in denen die Überprüfung eher oberflächlich geschah.
Ein weiterer Vorwurf des Magazins lautet, dass die israelische Armee in den ersten Wochen des Kriegs sehr hohe Zahlen ziviler Opfer in Kauf genommen habe. Selbst bei Angriffen, die einfache Hamas-Kämpfer zum Ziel gehabt hätten, habe das Militär 15 bis 20 zivile Tote als akzeptabel betrachtet. In früheren Kriegen habe man solche hohe Zahlen ziviler Opfer nur bei bedeutenden Hamas-Führern gebilligt.
«Der Maschine wird oft eine zu wichtige Rolle unterstellt»
Im KI-System, das «+972» beschreibt, gibt es viele Möglichkeiten für menschliches Eingreifen. Darauf verweist Heiko Borchert, Co-Direktor des Defense AI Observatory an der Universität der Bundeswehr in Hamburg. «Wie ich ein Hamas-Mitglied definiere, wie eindeutig die Identifizierung sein muss oder wie viele zivile Opfer ich in Kauf nehme – das sind alles menschliche Entscheidungen», sagt Borchert. Solche Entscheidungen würden die Leistungsfähigkeit eines technischen Systems sehr wesentlich bestimmen.
In Israel habe zumindest bis zum Terrorangriff der Hamas am 7. Oktober die Regel gegolten, dass ein Mensch die ultimative Entscheidung für einen Angriff fällen müsse, sagt Borchert. Genau daran entzünde sich nun die Kontroverse. «Im Krieg kann es zu einer Verschiebung der Prioritäten kommen», sagt Borchert. Die Operateure der Software könnten sich etwa mehr Ziele definieren lassen – oder einen Angriff anordnen, auch wenn das System nur eine Sicherheit von achtzig Prozent angebe.
Wie der Prozess der Identifikation der Ziele und der Freigabe des Angriffs in Israel genau aussieht, ist nicht öffentlich bekannt. Generell sagt Borchert: «Der Maschine wird in der öffentlichen Wahrnehmung oft eine zu wichtige Rolle unterstellt.» Eine wichtige Frage sei, welche Rolle die Militärjuristen mit ihrer Einschätzung zur Verhältnismässigkeit eines Angriffs spielen.
Die israelische Armee betont, dass die IT-Systeme nur Hilfsmittel der Analysten zur Identifikation von Zielen seien. «Gemäss den Richtlinien der israelischen Streitkräfte müssen die Analysten unabhängige Überprüfungen durchführen, um sicherzustellen, dass die identifizierten Ziele den geltenden Definitionen [. . .] entsprechen», heisst es in einer Stellungnahme. Für jedes Ziel werde eine individuelle Bewertung des militärischen Vorteils und der zu erwartenden zivilen Opfer vorgenommen.
KI-Systeme können auch besser für Zivilisten sein
Im Idealfall kann KI-Unterstützung dafür sorgen, dass Militäreinsätze präziser sind und weniger Zivilisten das Leben kosten. Als Israel im Mai 2021 erstmals im Krieg gegen die Hamas mehrere KI-Systeme einsetzte, war dies laut der israelischen Forscherin Liran Antebi der Fall. Sie führt als Beispiel einen Luftangriff gegen die Hamas an, bei dem innerhalb von 18 Minuten 170 Bomben abgeworfen worden seien, ohne dass es dabei zu zivilen Opfern gekommen sei.
Der Konflikt 2021 zeigt auch, wie stark die KI die Kriegsführung beschleunigt. Bis dahin war laut Antebi die Verarbeitung grosser Mengen an Daten, welche die Armee aus unterschiedlichen Quellen sammelt, ein Flaschenhals. Der Einsatz wurde dadurch verlangsamt. Das änderte sich mit dem KI-Programm «The Gospel» zur Zielidentifikation.
In den zwölf Tagen, welche die Operation im Gazastreifen im Mai 2021 dauerte, konnte die israelische Armee nach eigenen Angaben 200 hochrangige Ziele ausfindig machen. Früher hätte sie dafür ein ganzes Jahr benötigt.
Nach dem Angriff auf Israel am 7. Oktober war der politische Druck gross, die Hamas vollständig auszuschalten. Es erscheint plausibel, dass die Armee in dieser Situation unter Druck war, ihre Angriffe auszuweiten – und deshalb auch bereit war, mehr zivile Opfer in Kauf zu nehmen.
Zum Militäreinsatz wäre es auch ohne KI-Systeme gekommen. Die Zielauswahl wäre ohne die neue Technologie womöglich noch ungenauer ausgefallen. Die Zahl ziviler Opfer wäre bei grossflächigen Bombardierungen sicherlich noch grösser gewesen.
Menschen folgen Maschinen oft wider besseres Wissen
Aus ethischer Sicht wirft das KI-System trotzdem Fragen auf. Atay Kozlovski ist Philosoph an der Universität Zürich und arbeitet zu KI-Ethik. Er stammt aus Israel, wo er auch mehrere Jahre in der Armee Dienst geleistet hat. Seiner Ansicht nach gleicht das von «+972» beschriebene System ethisch gesehen einer autonomen Waffe. De facto entscheide die Maschine, nicht der Mensch.
«Ethisch gesehen sollte der Standard eine sinnvolle menschliche Kontrolle sein. Doch die ist nicht möglich, wenn das System so komplex ist, dass der Nutzer nicht weiss, woher die Entscheidung kommt.»
Im Moment ist nicht klar, wie komplex die israelischen KI-Systeme aufgebaut sind und wie viele unterschiedliche Datentypen sie verarbeiten. Je mehr Daten hineinfliessen, desto mehr werden sie zur Blackbox. Ein Mensch kann dann kaum mehr überprüfen, ob die Maschine sinnvoll entschieden hat oder nicht.
Dann fallen auch die Fehler nicht mehr auf, die KI-Systeme machen. Das «Lavender»-System vergleicht, ob die Datenspur einer Person der eines Terroristen ähnelt. Solche Systeme lernen oft falsche Zusammenhänge. Wer es verwendet, nimmt in Kauf, dass unschuldige Personen als Ziel markiert werden.
Und tendenziell akzeptieren Menschen Maschinen-Entscheide oft sogar, wenn sie es selbst besser wissen. Dieser sogenannte «automation bias» ist vielfach dokumentiert und erschwert eine sinnvolle menschliche Kontrolle zusätzlich.
Der einzelne Mensch fühlt sich weniger verantwortlich
Wenn ein Mensch auf Empfehlungen einer Maschine reagiert, verwischt sich auch die Verantwortung. In der Ethik spricht man vom «Problem der vielen Hände»: Die Entscheidung hängt nicht mehr an einer Person, sondern ist das Resultat einer ganzen Kette kleiner Weichenstellungen. Keiner in der Kette fühlt sich ganz verantwortlich.
Konkret entscheidet nicht nur der einzelne Soldat oder Kommandant, sondern auch der Designer des KI-Systems, der Hersteller und viele weitere. «Die einzelne Person folgt einem System und denkt nicht mehr darüber nach, was sie tut», sagt Kozlovski.
Technologie sei eben nicht neutral, sondern entfalte eine Eigendynamik. Ein Beispiel sei der oben beschriebene Flaschenhals der menschlichen Zielauswahl. Wenn man diesen mithilfe von KI behebe, ergebe sich eine ganze Liste an möglichen Zielen, sagt Kozlovski. «Daraus kann ein Druck entstehen, diese Ziele zu bombardieren. Denn sie sind ja schon da.»
Kritisch sieht er auch, dass so ein System den Gegner entmenschlicht und auf eine Zahl reduziert. «Natürlich kann man finden, ein Hamas-Terrorist habe nicht das Recht, als Individuum mit Menschenrechten behandelt zu werden. Aber das Kriegsrecht schreibt das eigentlich vor», sagt er.
Während Ethiker erst beginnen, sich mit den komplexen Fragen von Schuld und Verantwortung im KI-Zeitalter auseinanderzusetzen, rüsten Armeen in der ganzen Welt mit solchen Systemen auf. Es ist auch ein Wettrüsten: Wenn es der Gegner tut, will man mithalten.