Grosse Ethischen Bedenken: Israel SETZT in Gaza Stark auf Künstlich Intelligenz
Noch Imergelsscheiden Soldaten, war als Angriffsziel Definierer Wird und war Als Verhältnisssig gilt. Doch Ki Wird Wichtiger.
Ein Ki Hilft der Israelischen Armee Dabei, Ziele im Gazastreichen Zu Identifizieren.
Mohammed Sabre / EPA
Künstliche Intelligenz RevolutionTerer sterben KriegsfÜHrung. Streiitkrräfe Hoffen, Mithilfe von daten und Algorithmen Genauer und Effizierer Vorgeen Zu Können. Zugleich Geht Die Angst vor Autonomen Kilomaschinen um, sterbe Selbständig über LeBen und todsscheiden.
Optimierer Sie Ihre Browsereinstellungen
Nzz.Ch Benögt JavaScript für WILLTIGE FUNKTIONEN. IHR Browser adblocker verhindert stirbt momentan.
Bittte passen Sie die Einstellungs an.
Wie der Einatz von Künstlicher Intelligenz (Ki) im KriG AUSSEHEN Kann, Zeugt der Gazakrieg. Eine Recherche des Linklen Israelischen Magazine «+972» Hat nun Ein Diskussion Ausgelöst. LAUT Dem Magazin Hut Israels Armee Die Vorschläge der Ki für Bombardierungen Nick Eingtehend überpruft und viele Zivile Opfer in Kauf Genommen.
«+972» Zeichnet des Bildes Einer Automatisen Tötungsmasschinerie, GetrieBen von Einer Fehlerwacht Ki-Software. Doch stimmt Dieside bild?
Das israelische Armee ki-regalte systeme einsetzt, Etwa um Angriffsziele zu identifizieren, ist ungebrindest. Bereits im Mai 2021 Verwendeten Die Streeitkräfe im Gazastreifen ein Programmnamen «The Gospel», Das Empfehlungen für Ziele AbgiBt.
Ki-programm diente im kr kr kr kr kr kr terrorzellen zu identifizieren und zu orten, wie ein israelischer Offizier im Vergangenen Jahr und Einer Konferenz Berchtetet. Bereits Damals War von Einem «ki-krieg» Die Rede.
Nur Zwanzig Sekunden, ähm Ziel Zusenprufen?
Die Inentscheidende Frage ist Aber-Aber, war die Rahmenbedingungen für den Einatz der Ki-System. Der Bericht von «+972» Erhbt Dazu Schwere Vorworth Gegen Die israelische Armee. Das Magazin ist für die Seine Kritik An Israels Beatzungspolitik Bekannt und Eckt Damit Auch im Eigenen Land an. Für die Bericht Stütttes Sich auf die Aussagen von SECHS Anonymen Angebörigen der Streitkräfete.
Israel Hut laut «+972» Ein Programm namens «Lavendel» Entwickelt, Das Aufgrund von Information über die Einwohner des Gazastreifens Eine Eigscheinlich Errrechnet, Mit -Derm -Militölschen -FlÜgen der Hamas Odterensinenensinen Illschen AngeHört. DAZU Vergichtes sterben DATEN MIT CHARAKAKTERISTISCHEN MUSERNE BEKANNTER Terroristen.
Schättt Die Ki-Software Ein-Person Als Terroristen ein, Wird Sie Zumglichen Ziel für Bombardierung. Die überprufung, ob die Einschätzung der Ki Korrekt ist, fält laut «+972» Nur Sehr Oberflähloich aus. Dabei Soll sterben fehlerquote von «lavendel» bei zehn prozent liegen: Das System Schlägt Auch in Zehn Prozent der Fälle Menschen Als Ziele vor, Die Nickts Mit der Hamas Zu Tun Haben.
Ein Anonyme Quelle Sagte Gegen Haler «+972», Die überprufung eines zieles Habe in der Regel Nur Zwanzig Sekunden Gedauert. Dass Die Angabe Tatsächlich für alle Einheuten und für die Gesamt -Dauer des Gazakriegs Zutrifft, ist Zu Bezweifeln. Vorstellbar ist, Dass es Phasen Beders Intensiver Militärische Aktivität Gab, in Denen Die überprufung Eherflähloich Geschah.
Ein Witerer Vorwurf des Magazins Lautet, Dass Die israelische Armee in der Denersten Wochen des Kriegs Sehr Hohe Zahres Ziviler OPFER in Kauf genommen Haber. Selbst bei In Frooheren Kriegen Habe Mann Solche Hohe Zahres Ziviler Opfer Nur Bei Bedeutenden Hamas-zumsten Gebilligt.
«Der Maschin wird of to zu wichtige rolle terstrellt»
Im ki-system, Das «+972» Beschreiteil, GiBt es viele möglichkitzen für Menschliches eingreifen. Darauf Verweisten Heiko Borchert, Co-Direktor des Defense AI Observatory und der Universität der Bundeswehr in Hamburg. «Wie ein Ein Hamas-Mitglied Definiere, Wie Einendeutig Die Identifizierung von Muss ass wie viele zivile opfer iCH in kauf nehme-Das Sind Alles Menschlich-Intzeidungen», Sagt Borchert. Solche -Unternehmen
Heiko Borchert.
PD
In Israel Habe Zumindest bis Zumum terrorangrif der Hamas am 7. Oktober sterben Regel Gegolten, Dass Einscher sterben ultimative Inentscheidung für Angriff Fälen Müsse, Sagt Borchert. Genau Daran Entzünde Sichne Nun sterbe Kontroverse. «Im KriG Kann es Zuer Verschiebung der Prioritäten Kommen», Sagt Borchert. Die operation der Software Könnten Sich Etwa Mehre Ziele definieren Lasssen – Oder Einen Angriff Anornen, Auch Wenn -Das -System Nur ein Einheit von Achtzig Prozent Angel.
Wie der Prozesess der Identifikation der Ziele und der Freigabe des Angriffs in Israel Genau Aussieht, ist Nick appentlich Bekannt. Generell Sagt Borchert: «Der Maschin Wird in der Öffentlichen EisnehMung von t tu wichtige Rolle Unterstellt.» Eine WichtTige Frage Sei, Welche rolle Die Militärjuristen MIT Ihrer Einschätzung zum Verhältnisssischen Einen Angriffs spielen.
Die israelische Armee Betont, Dass Die It-System Nur Hilfsmittel der Analynen zur Identifikation von Zielen Sesen. «Gemäss der Richtliner der Israelischen Streitkrräät Müssen Die Analynen unabhängige überprufungen Dasken, um Sicherzustellen, Dass Die Identifizerten Ziele Den Geltenden Definition […] Inspieren », heist es in Einer stellungnahme. Für Jedes ziel Were ein Individuellentung des Militärischen Vorders -Vorders -Vorgens -Vorders -Vorfers -Vorfers.
Ki-System Können Auch Besser für Zivilisten Sein
Im Idealfall Kann Ki-Tunstützung Dafürgen, Dass Militäinsätze Präziser Sind und Weniger Zivilisten Das LeBen Kosten. Als Israel im Mai 2021 Erstmals im KriG Gegen Die Hamas Mehrere Ki-System Einsetzte, Krieg stirbt Laut der Israelischen Forscherin Liran Antebi der Fall. Sie frotrt als bebiel einen lufangriff ggen die hamas an, bei Innerhalb von 18 minuten 170 Bomben AbgeWorfen Worden Sei, ohn Dass es Dabei Zu Zivilen Opfern GEKMENMEN SEI.
Der Konflikt 2021 Zeigt Auch, Wie Stark Die ki Die Kriveralt. BIS DAHIN WAR Laut Antebi Die Verarbeitung Grosser Mengen ein daten, Welche Die Armee ausesschiedliche Quellen Sammelt, Ein Flaschenhals. Der Einatz Wurde Dadurch Verlangsamt. Das aarderte sich mit dem ki-programm «Das Gospel» Zuridifikation.
In den Zwölf Tagen, Welche Die Operation im Gazastreifen im Mai 2021 Dauterte, Konnte Die Israelische Armee Nach -Eigen Angaben 200 Hochrangige Ziele Ausfindig Machen. Frücher Hätte sie Dafür Ein Ganzes Jahr Benögt.
Nach dem Angriff auf Israel AM 7. Oktober Krieg der Politischen Druck, die Hamas Vollständig Auszuschalen. Es ersche plausibel, Dass Die Armee in Dieser -Situation einskrieger Krieg, Ihre Angriffe Auszuweiten – und und Deshalb auch Bereit Krieg, Mehr Zivile operiert in Kauf Zu Nehmen.
Zumm Militäinsatz Wärre es Auch Och Och Och Och Och Ohrne Ki-SYSTEME GEKommen. Die Zielauswahl Wäre ohne die Nee Technologie Womöglich Noch Ungenauer Ausgaden. Die Zahl Ziviler Opfer Wärre bei Grossfliechigen Bombardierungen Sicherlich Noch Grösser Gewesen.
Menschen Folgen Maschinen Of breitere Besseres Wissens
Aus Ethischer Sicht Wirft Das Ki-System Trotzdem Fragen auf. Atay Kozlovski ist Philosoph und die Universität Zürich und Arangeet Zu K-Ethik. Er stammt aus israel, wo er auch Mehrere Jahre in der Armee Dienst Geleistet Hut. SEINER ANSCHT NACH GLEWN DAS VON «+972» BECHRIEBENE -SYSTEM ETHISHEN EINER EINER AUTHERIMONE WAFFE. De facto Inzweiden -Maschin, Nicht der Mensch.
Atay Kozlovski.
PD
«Ethisch Gesehen Sollte der Standard -Ein -Sinnvolle Menschliche Kontrolle Sein. Doch sterbe nick möglich, Wenn das System so Komplex ist, Dass der Nutzer Nick Weiss, woher Die Inzweidung Kommt. »
Im Moment ist Nick Klar, wie Komplex Die israelische ki-system auf aufgebaut. Je Mehr Daten Hineinfliesen, Desto Mehrden Sie Zur Blackbox. Einmensch Kann Dann Kaum Mehrprufen, ob die Maschine sinnvoll entsschiden Hut oder nick.
Dann gefallen Auch Die Fehler Nick Mehr aufau, die Ki-System-Mache. Das «Lavendel» -System Vergicht, OB Die DATENSPUR EINER PERSON DER EINES Terroristen ählelt. Solche Systeme Lernen Falssche Zusammenhänge. Wer es Verwendet, Nimmt in Kauf, Dass Unschuldigepersonen Als Ziel Markertert Werden.
Und Tendenziell Akzeptieren Menschen Maschinen-Entzeid Ofl Sogar, Wenn Sie es Selbst Besser Wissens. Dieser sogenannte «Automatisierungsvorspannung» ist Vielfach Dokumenterer und erschwert ein
Der Einzeln -Mensch für Sich Weniger Verantwortlich
Vern Einer Mensch auf Empfehlungen Einer Maschine Reagiert, Verwisch sich Auch die Verantwortung. In der Ethik Spricht Man vom «Problem der Vielen Häynde»: Die Inentscheidung Hängtn Nick Mehrt Mehr eine Einer -Person, Sonder ist das Ergebnis Einer Ganzen Kette Kleiner Weichenstellungen. KEINER IN DER KETTE FÜHLT SICH GANZ VERANTWORTlich.
Konkret Inssschen «Die Einzelne -Person Folgt Einem System und Denkt Nick Mehr Dareugrer Nach, war Sie Tut», Sagt Kozlovski.
Technologie Sei Eben nick neutral, Sonder entfalte eIne igendynamik. Ein BEISPIEL SEI der Oben Beschiebene Flaschenhals der Menschlichen Zielauswahl. Wenn Man Diesen Mithilfe von Ki Behebe, Ergeblich Ein Ganze List An Möglichen Zielen, Sagt Kozlovski. «Daraus Kann ein Druck entstehen, Diese ziele Zu Bombardieren. Denn sie Sind Ja Schon da. »
Kritisch Sieeht er Auch, Dass so ein System Den Gegner Entmenschlich und auf Auf Eine Zahl Reduzerert. «Natürlich Kann Man fandden, Ein Hamas-Terrorist Habe nick Das revht, Als Individuum mit Menschenrechtden Behandelt zu Werden. ABER DAS KriGsrecht Schreiteil Das Eigentlich vor », Sagt er.
Wähhrend Ethiker Erst Annen, Sich mit dem Komplexen Fragen von Schuld und Verantwortung im Ki-Sealter Auseinanderzusetze, Rüsten Armeen in der Ganzen Welt MIT Solchen Systemen aUf. Es ist auch ein Wettrüsten: Wenn der Gegner Tut, wird man Mithalten.