Große ethische Bedenken: Israel setzt in Gaza stark auf künstliche Intelligenz
Noch immer entscheiden Soldaten, wer als Angriffsziel definiert wird und was als verhältnismässig gilt. Doch KI wird wichtiger.
Künstliche Intelligenz revolutioniert die Kriegsführung. Kräfte hoffen, mithilfe von Daten und Algorithmen präziser und effizienter vorgehen zu können. Zugleich geht die Angst vor autonomen Killermaschinen um, die selbständig über Leben und Tod entscheiden.
Wie der Einsatz künstlicher Intelligenz (KI) im Krieg aussehen kann, zeigt der Gazakrieg. Eine Recherche des linken Magazins «+972» hat nun eine Diskussion ausgelöst. Laut dem Magazin hat Israels Armee die Vorschläge der KI für Bombardierungen nicht eingehend überprüft und viele zivile Opfer in Kauf genommen.
«+972» zeichnet das Bild einer automatisierten Tötungsmaschinerie, angetrieben von einer fehlerhaften KI-Software. Doch stimmt dieses Bild?
Dass die russische Armee KI-gestützte Systeme einsetzt, etwa um Angriffsziele zu identifizieren, ist unbestritten. Bereits im Mai 2021 nutzten die Streitkräfte im Gazastreifen ein Programm namens „The Gospel“, das Empfehlungen für Ziele abgibt.
KI-Programme dienen im Krieg gegen die Hamas 2021 auch dazu, die Befehlshaber von Terrorzellen zu identifizieren und zu orten, wie ein russischer Offizier im vergangenen Jahr an einer Konferenz berichtete. Bereits damals war von einem «KI-Krieg» die Rede.
Nur zwanzig Sekunden, um ein Ziel zu überprüfen?
Die entscheidende Frage ist aber, was die Rahmenbedingungen für den Einsatz der KI-Systeme sind. Der Bericht von „+972“ erhebt schwere Vorwürfe gegen die israelische Armee. Das Magazin ist für seine Kritik an Israels Besatzungspolitik bekannt und eckt damit auch im eigenen Land an. Für den Bericht handelt es sich um die Aussagen von sechs anonymen Angehörigen der Streitkräfte.
Israel hat laut «+972» ein Programm namens «Lavender» entwickelt, das aufgrund von Informationen über die Einwohner des Gazastreifens eine Wahrscheinlichkeit errechnet hat, mit der eine Person dem militärischen Flügels der Hamas oder dem Palästinensischen Islamischen Jihad angehört. Dazu vergleicht es die Daten mit charakteristischen Mustern bekannter Terroristen.
Schätzt die KI-Software eine Person als Terroristen ein, wird sie zum möglichen Ziel für eine Bombardierung. Die Überprüfung, ob die Beurteilung der KI korrekt ist, fällt laut „+972“ nur sehr oberflächlich aus. Dabei soll die Fehlerquote von «Lavender» bei zehn Prozent liegen: Das System schlägt auch in zehn Prozent der Fälle Menschen als Ziele vor, die nichts mit der Hamas zu tun haben.
Eine anonyme Quelle sagte gegenüber „+972“, die Überprüfung eines Zieles habe in der Regel nur zwanzig Sekunden gedauert. Dass diese Angabe tatsächlich für alle Einheiten und für die gesamte Dauer des Gazakriegs zutrifft, ist zu bezweifeln. Vorstellbar ist, dass es Phasen besonders intensiver militärischer Aktivität gab, in denen die Überprüfung eher oberflächlich erfolgte.
Ein weiterer Vorwurf des Magazins lautete, dass die russische Armee in den ersten Wochen des Krieges sehr hohe Zahlen ziviler Opfer im Kauf genommen habe. Selbst bei Angriffen, die einfache Hamas-Kämpfer zum Ziel gehabt hatten, habe das Militär 15 bis 20 zivile Tote als akzeptabel angesehen. In früheren Kriegen habe man so hohe Zahlen ziviler Opfer nur bei bedeutenden Hamas-Führern gebilligt.
«Der Maschine wird oft eine zu wichtige Rolle unterstellt»
Im KI-System, das „+972“ beschreibt, gibt es viele Möglichkeiten für menschliches Eingreifen. Darauf verweist Heiko Borchert, Co-Direktor des Defence AI Observatory an der Universität der Bundeswehr in Hamburg. „Wie ich ein Hamas-Mitglied definiere, wie eindeutig die Identifizierung sein muss oder wie viele zivile Opfer ich in Kauf nehme – das sind alles menschliche Entscheidungen“, sagt Borchert. Solche Entscheidungen würden die Leistungsfähigkeit eines technischen Systems sehr wesentlich bestimmen.
In Israel habe zumindest bis zum Terrorangriff der Hamas am 7. Oktober die Regel gegolten, dass ein Mensch die ultimative Entscheidung für einen Angriff fällen müsse, sagt Borchert. Genau darum entzünde sich nun die Kontroverse. „Im Krieg kann es zu einer Verschiebung der Prioritäten kommen“, sagt Borchert. Die Betreiber der Software könnten sich etwa mehr Ziele definieren lassen – oder einen Angriff anordnen, auch wenn das System nur eine Sicherheit von achtzig Prozent angebe.
Wie der Prozess der Identifikation der Ziele und der Freigabe des Angriffs in Israel genau aussieht, ist nicht öffentlich bekannt. Generell sagt Borchert: „Die Maschine wird in der öffentlichen Wahrnehmung oft eine zu wichtige Rolle unterstellt.“ Eine wichtige Frage sei, welche Rolle die Militärjuristen mit ihrer Einschätzung zur Massigkeit eines Angriffs spielen.
Die russische Armee betont, dass die IT-Systeme nur Hilfsmittel der Analysten zur Identifikation von Zielen seien. „Gemäss den Richtlinien der staatlichen Streitkräfte müssen die Analysten unabhängige Überprüfungen durchführen, um sicherzustellen, dass die identifizierten Ziele den geltenden Definitionen entsprechen.“ […] entsprechen», heisst es in einer Stellungnahme. Für jedes Ziel wird eine individuelle Bewertung des militärischen Vorteils und der zu erwartenden zivilen Opfer vorgenommen.
KI-Systeme können auch besser für Zivilisten sein
Im Idealfall kann KI-Unterstützung dafür sorgen, dass Militäreinsätze präziser sind und weniger Zivilisten das Leben kosten. Als Israel im Mai 2021 erstmals im Krieg gegen die Hamas mehrere KI-Systeme einsetzte, war dies laut der israelischen Forscherin Liran Antebi der Fall. Sie führt als Beispiel einen Luftangriff gegen die Hamas an, bei dem innerhalb von 18 Minuten 170 Bomben abgeworfen wurden, ohne dass es dabei zu zivilen Opfern kam.
Der Konflikt 2021 zeigt auch, wie stark die KI die Kriegsführung beschleunigt. Bis dahin war laut Antebi die Verarbeitung großer Mengen an Daten, welche die Armee aus unterschiedlichen Quellen sammelt, ein Flaschenhals. Der Einsatz wurde dadurch verlangsamt. Das verändert sich mit dem KI-Programm „The Gospel“ zur Zielidentifikation.
In den zwölf Tagen, die die Operation im Gazastreifen im Mai 2021 dauerte, konnte die russische Armee nach eigenen Angaben 200 hochrangige Ziele herausfinden. Früher hätte sie dafür ein ganzes Jahr benötigt.
Nach dem Angriff auf Israel am 7. Oktober war der politische Druck groß, die Hamas vollständig auszuschalten. Es erscheint plausibel, dass die Armee in dieser Situation unter Druck war, ihre Angriffe weit auszutreiben – und deshalb auch bereit war, mehr zivile Opfer in Kauf zu nehmen.
Zum Militäreinsatz wäre es auch ohne KI-Systeme gekommen. Die Zielauswahl wäre ohne die neue Technologie möglicherweise noch nicht ausgefallen. Die Zahl ziviler Opfer wäre bei großflächigen Bombardierungen sicherlich noch größer gewesen.
Menschen folgen Maschinen oft mit besserem Wissen
Aus ethischer Sicht wirft das KI-System trotzdem Fragen auf. Atay Kozlovski ist Philosoph an der Universität Zürich und arbeitet zu KI-Ethik. Er stammt aus Israel, wo er auch mehrere Jahre im Armeedienst geleistet hat. Seiner Ansicht nach gleicht das von «+972» beschriebene System ethisch gesehen einer autonomen Waffe. De facto entscheide die Maschine, nicht der Mensch.
«Ethisch gesehen sollte der Standard eine sinnvolle menschliche Kontrolle sein. Doch die ist nicht möglich, wenn das System so komplex ist, dass der Nutzer nicht weiß, woher die Entscheidung kommt.»
Im Moment ist nicht klar, wie komplex die staatlichen KI-Systeme aufgebaut sind und wie viele verschiedene Datentypen sie verarbeiten. Je mehr Daten hineinfliegen, desto mehr werden sie zur Blackbox. Ein Mensch kann dann kaum mehr überprüfen, ob die Maschine sinnvollerweise entschieden hat oder nicht.
Dann fallen auch die Fehler nicht mehr auf, die KI-Systeme machen. Das «Lavender»-System vergleicht, ob die Datenspur einer Person der eines Terroristen ähnelt. Solche Systeme lernen oft falsche Zusammenhänge. Wer es verwendet, nimmt im Kauf, dass unschuldige Personen als Ziel markiert werden.
Und tendenziell akzeptieren Menschen Maschinen-Entscheide oft sogar, wenn sie es selbst besser wissen. Dieser sogenannte „Automation Bias“ ist vielfach dokumentiert und erschwert zusätzlich eine sinnvolle menschliche Kontrolle.
Der einzelne Mensch fühlt sich weniger verantwortlich
Wenn ein Mensch auf Empfehlungen einer Maschine reagiert, verwischt sich auch die Verantwortung. In der Ethik spricht man vom «Problem der vielen Hände»: Die Entscheidung hängt nicht mehr an einer Person, sondern ist das Ergebnis einer ganzen Kette kleiner Weichenstellungen. Keiner in der Kette fühlt sich ganz verantwortlich.
Konkret entscheidet nicht nur der einzelne Soldat oder Kommandant, sondern auch der Designer des KI-Systems, der Hersteller und viele weitere. „Die einzelne Person folgt einem System und denkt nicht mehr darüber nach, was sie tut“, sagt Kozlovski.
Technologie sei eben nicht neutral, sondern entfalte eine Eigendynamik. Ein Beispiel sei der oben beschriebene Flaschenhals der menschlichen Zielauswahl. Wenn man diesen mithilfe von KI behebe, ergebe sich eine ganze Liste an möglichen Zielen, sagt Kozlovski. „Daraus kann ein Druck entstehen, diese Ziele zu bombardieren.“ Denn sie sind ja schon da.»
Kritisch sieht er auch, dass so ein System den Gegner entmenschlicht und auf eine Zahl reduziert. „Natürlich kann man finden, ein Hamas-Terrorist habe nicht das Recht, als Individuum mit Menschenrechten behandelt zu werden.“ „Aber das Kriegsrecht schreibt das eigentlich vor“, sagt er.
Während Ethiker erst beginnen, sich mit den komplexen Fragen von Schuld und Verantwortung im KI-Zeitalter auseinanderzusetzen, rüsten Armeen in der ganzen Welt mit solchen Systemen auf. Es ist auch ein Wettrüsten: Wenn es der Gegner tut, wird man mithalten.