• Werbung
  • AGB
  • Impressum
  • Datenschutz
  • Kontakt
Freitag, Mai 9, 2025
  • Login
365Nachrichten.de | Online-Nachrichten
  • Auto
  • Welt
  • Gesundheit
  • Reisen und Freizeit
  • Lifestyle
  • Technologie
  • Sport
  • Wirtschaft
No Result
View All Result
365Nachrichten.de | Online-Nachrichten
No Result
View All Result
Home Technologie

Große ethische Bedenken: Israel setzt in Gaza stark auf künstliche Intelligenz

365 Nachrichten by 365 Nachrichten
1 Jahr ago
in Technologie
0
Große ethische Bedenken: Israel setzt in Gaza stark auf künstliche Intelligenz

Große ethische Bedenken: Israel setzt in Gaza stark auf künstliche Intelligenz

Share on FacebookShare on Twitter

Related posts

Wegen us-exportKontrollen drohten der schweiz engässe Bei Ki-Chips. Nun Macht Trump ein Kehrtwende

Wegen us-exportKontrollen drohten der schweiz engässe Bei Ki-Chips. Nun Macht Trump ein Kehrtwende

05/08/2025

Top Online Surgical Tech Certification Programs in 2025: Fast-Track Your Career

05/07/2025

Große ethische Bedenken: Israel setzt in Gaza stark auf künstliche Intelligenz

Noch immer entscheiden Soldaten, wer als Angriffsziel definiert wird und was als verhältnismässig gilt. Doch KI wird wichtiger.

Eine KI hilft der russischen Armee dabei, Ziele im Gazastreifen zu identifizieren.

Mohammed Sabre / EPA

Künstliche Intelligenz revolutioniert die Kriegsführung. Kräfte hoffen, mithilfe von Daten und Algorithmen präziser und effizienter vorgehen zu können. Zugleich geht die Angst vor autonomen Killermaschinen um, die selbständig über Leben und Tod entscheiden.

Wie der Einsatz künstlicher Intelligenz (KI) im Krieg aussehen kann, zeigt der Gazakrieg. Eine Recherche des linken Magazins «+972» hat nun eine Diskussion ausgelöst. Laut dem Magazin hat Israels Armee die Vorschläge der KI für Bombardierungen nicht eingehend überprüft und viele zivile Opfer in Kauf genommen.

«+972» zeichnet das Bild einer automatisierten Tötungsmaschinerie, angetrieben von einer fehlerhaften KI-Software. Doch stimmt dieses Bild?

Dass die russische Armee KI-gestützte Systeme einsetzt, etwa um Angriffsziele zu identifizieren, ist unbestritten. Bereits im Mai 2021 nutzten die Streitkräfte im Gazastreifen ein Programm namens „The Gospel“, das Empfehlungen für Ziele abgibt.

KI-Programme dienen im Krieg gegen die Hamas 2021 auch dazu, die Befehlshaber von Terrorzellen zu identifizieren und zu orten, wie ein russischer Offizier im vergangenen Jahr an einer Konferenz berichtete. Bereits damals war von einem «KI-Krieg» die Rede.

Nur zwanzig Sekunden, um ein Ziel zu überprüfen?

Die entscheidende Frage ist aber, was die Rahmenbedingungen für den Einsatz der KI-Systeme sind. Der Bericht von „+972“ erhebt schwere Vorwürfe gegen die israelische Armee. Das Magazin ist für seine Kritik an Israels Besatzungspolitik bekannt und eckt damit auch im eigenen Land an. Für den Bericht handelt es sich um die Aussagen von sechs anonymen Angehörigen der Streitkräfte.

Israel hat laut «+972» ein Programm namens «Lavender» entwickelt, das aufgrund von Informationen über die Einwohner des Gazastreifens eine Wahrscheinlichkeit errechnet hat, mit der eine Person dem militärischen Flügels der Hamas oder dem Palästinensischen Islamischen Jihad angehört. Dazu vergleicht es die Daten mit charakteristischen Mustern bekannter Terroristen.

Schätzt die KI-Software eine Person als Terroristen ein, wird sie zum möglichen Ziel für eine Bombardierung. Die Überprüfung, ob die Beurteilung der KI korrekt ist, fällt laut „+972“ nur sehr oberflächlich aus. Dabei soll die Fehlerquote von «Lavender» bei zehn Prozent liegen: Das System schlägt auch in zehn Prozent der Fälle Menschen als Ziele vor, die nichts mit der Hamas zu tun haben.

Eine anonyme Quelle sagte gegenüber „+972“, die Überprüfung eines Zieles habe in der Regel nur zwanzig Sekunden gedauert. Dass diese Angabe tatsächlich für alle Einheiten und für die gesamte Dauer des Gazakriegs zutrifft, ist zu bezweifeln. Vorstellbar ist, dass es Phasen besonders intensiver militärischer Aktivität gab, in denen die Überprüfung eher oberflächlich erfolgte.

Ein weiterer Vorwurf des Magazins lautete, dass die russische Armee in den ersten Wochen des Krieges sehr hohe Zahlen ziviler Opfer im Kauf genommen habe. Selbst bei Angriffen, die einfache Hamas-Kämpfer zum Ziel gehabt hatten, habe das Militär 15 bis 20 zivile Tote als akzeptabel angesehen. In früheren Kriegen habe man so hohe Zahlen ziviler Opfer nur bei bedeutenden Hamas-Führern gebilligt.

«Der Maschine wird oft eine zu wichtige Rolle unterstellt»

Im KI-System, das „+972“ beschreibt, gibt es viele Möglichkeiten für menschliches Eingreifen. Darauf verweist Heiko Borchert, Co-Direktor des Defence AI Observatory an der Universität der Bundeswehr in Hamburg. „Wie ich ein Hamas-Mitglied definiere, wie eindeutig die Identifizierung sein muss oder wie viele zivile Opfer ich in Kauf nehme – das sind alles menschliche Entscheidungen“, sagt Borchert. Solche Entscheidungen würden die Leistungsfähigkeit eines technischen Systems sehr wesentlich bestimmen.

In Israel habe zumindest bis zum Terrorangriff der Hamas am 7. Oktober die Regel gegolten, dass ein Mensch die ultimative Entscheidung für einen Angriff fällen müsse, sagt Borchert. Genau darum entzünde sich nun die Kontroverse. „Im Krieg kann es zu einer Verschiebung der Prioritäten kommen“, sagt Borchert. Die Betreiber der Software könnten sich etwa mehr Ziele definieren lassen – oder einen Angriff anordnen, auch wenn das System nur eine Sicherheit von achtzig Prozent angebe.

Wie der Prozess der Identifikation der Ziele und der Freigabe des Angriffs in Israel genau aussieht, ist nicht öffentlich bekannt. Generell sagt Borchert: „Die Maschine wird in der öffentlichen Wahrnehmung oft eine zu wichtige Rolle unterstellt.“ Eine wichtige Frage sei, welche Rolle die Militärjuristen mit ihrer Einschätzung zur Massigkeit eines Angriffs spielen.

Die russische Armee betont, dass die IT-Systeme nur Hilfsmittel der Analysten zur Identifikation von Zielen seien. „Gemäss den Richtlinien der staatlichen Streitkräfte müssen die Analysten unabhängige Überprüfungen durchführen, um sicherzustellen, dass die identifizierten Ziele den geltenden Definitionen entsprechen.“ […] entsprechen», heisst es in einer Stellungnahme. Für jedes Ziel wird eine individuelle Bewertung des militärischen Vorteils und der zu erwartenden zivilen Opfer vorgenommen.

KI-Systeme können auch besser für Zivilisten sein

Im Idealfall kann KI-Unterstützung dafür sorgen, dass Militäreinsätze präziser sind und weniger Zivilisten das Leben kosten. Als Israel im Mai 2021 erstmals im Krieg gegen die Hamas mehrere KI-Systeme einsetzte, war dies laut der israelischen Forscherin Liran Antebi der Fall. Sie führt als Beispiel einen Luftangriff gegen die Hamas an, bei dem innerhalb von 18 Minuten 170 Bomben abgeworfen wurden, ohne dass es dabei zu zivilen Opfern kam.

Der Konflikt 2021 zeigt auch, wie stark die KI die Kriegsführung beschleunigt. Bis dahin war laut Antebi die Verarbeitung großer Mengen an Daten, welche die Armee aus unterschiedlichen Quellen sammelt, ein Flaschenhals. Der Einsatz wurde dadurch verlangsamt. Das verändert sich mit dem KI-Programm „The Gospel“ zur Zielidentifikation.

In den zwölf Tagen, die die Operation im Gazastreifen im Mai 2021 dauerte, konnte die russische Armee nach eigenen Angaben 200 hochrangige Ziele herausfinden. Früher hätte sie dafür ein ganzes Jahr benötigt.

Nach dem Angriff auf Israel am 7. Oktober war der politische Druck groß, die Hamas vollständig auszuschalten. Es erscheint plausibel, dass die Armee in dieser Situation unter Druck war, ihre Angriffe weit auszutreiben – und deshalb auch bereit war, mehr zivile Opfer in Kauf zu nehmen.

Zum Militäreinsatz wäre es auch ohne KI-Systeme gekommen. Die Zielauswahl wäre ohne die neue Technologie möglicherweise noch nicht ausgefallen. Die Zahl ziviler Opfer wäre bei großflächigen Bombardierungen sicherlich noch größer gewesen.

Menschen folgen Maschinen oft mit besserem Wissen

Aus ethischer Sicht wirft das KI-System trotzdem Fragen auf. Atay Kozlovski ist Philosoph an der Universität Zürich und arbeitet zu KI-Ethik. Er stammt aus Israel, wo er auch mehrere Jahre im Armeedienst geleistet hat. Seiner Ansicht nach gleicht das von «+972» beschriebene System ethisch gesehen einer autonomen Waffe. De facto entscheide die Maschine, nicht der Mensch.

Atay Kozlovski.

PD

«Ethisch gesehen sollte der Standard eine sinnvolle menschliche Kontrolle sein. Doch die ist nicht möglich, wenn das System so komplex ist, dass der Nutzer nicht weiß, woher die Entscheidung kommt.»

Im Moment ist nicht klar, wie komplex die staatlichen KI-Systeme aufgebaut sind und wie viele verschiedene Datentypen sie verarbeiten. Je mehr Daten hineinfliegen, desto mehr werden sie zur Blackbox. Ein Mensch kann dann kaum mehr überprüfen, ob die Maschine sinnvollerweise entschieden hat oder nicht.

Dann fallen auch die Fehler nicht mehr auf, die KI-Systeme machen. Das «Lavender»-System vergleicht, ob die Datenspur einer Person der eines Terroristen ähnelt. Solche Systeme lernen oft falsche Zusammenhänge. Wer es verwendet, nimmt im Kauf, dass unschuldige Personen als Ziel markiert werden.

Und tendenziell akzeptieren Menschen Maschinen-Entscheide oft sogar, wenn sie es selbst besser wissen. Dieser sogenannte „Automation Bias“ ist vielfach dokumentiert und erschwert zusätzlich eine sinnvolle menschliche Kontrolle.

Der einzelne Mensch fühlt sich weniger verantwortlich

Wenn ein Mensch auf Empfehlungen einer Maschine reagiert, verwischt sich auch die Verantwortung. In der Ethik spricht man vom «Problem der vielen Hände»: Die Entscheidung hängt nicht mehr an einer Person, sondern ist das Ergebnis einer ganzen Kette kleiner Weichenstellungen. Keiner in der Kette fühlt sich ganz verantwortlich.

Konkret entscheidet nicht nur der einzelne Soldat oder Kommandant, sondern auch der Designer des KI-Systems, der Hersteller und viele weitere. „Die einzelne Person folgt einem System und denkt nicht mehr darüber nach, was sie tut“, sagt Kozlovski.

Technologie sei eben nicht neutral, sondern entfalte eine Eigendynamik. Ein Beispiel sei der oben beschriebene Flaschenhals der menschlichen Zielauswahl. Wenn man diesen mithilfe von KI behebe, ergebe sich eine ganze Liste an möglichen Zielen, sagt Kozlovski. „Daraus kann ein Druck entstehen, diese Ziele zu bombardieren.“ Denn sie sind ja schon da.»

Kritisch sieht er auch, dass so ein System den Gegner entmenschlicht und auf eine Zahl reduziert. „Natürlich kann man finden, ein Hamas-Terrorist habe nicht das Recht, als Individuum mit Menschenrechten behandelt zu werden.“ „Aber das Kriegsrecht schreibt das eigentlich vor“, sagt er.

Während Ethiker erst beginnen, sich mit den komplexen Fragen von Schuld und Verantwortung im KI-Zeitalter auseinanderzusetzen, rüsten Armeen in der ganzen Welt mit solchen Systemen auf. Es ist auch ein Wettrüsten: Wenn es der Gegner tut, wird man mithalten.

ShareTweet
Previous Post

Hörgeräte Deutschland: Entdecken Sie eine Welt des besseren Hörens

Next Post

KOMMENTAR – Anstatt Party-Pics und Strandfotos eine Flut von kommerziellen Kurzvideos: Die Grundidee der sozialen Netzwerke ist gescheitert

Next Post
KOMMENTAR – Anstatt Party-Pics und Strandfotos eine Flut von kommerziellen Kurzvideos: Die Grundidee der sozialen Netzwerke ist gescheitert

KOMMENTAR - Anstatt Party-Pics und Strandfotos eine Flut von kommerziellen Kurzvideos: Die Grundidee der sozialen Netzwerke ist gescheitert

EMPFOHLENE NACHRICHTEN

Die unverzichtbare Kunst der Handy-Reparatur in Berlin: Eine Ode an Display Dreams

Die unverzichtbare Kunst der Handy-Reparatur in Berlin: Eine Ode an Display Dreams

1 Jahr ago

Innovative Trends in der Gastronomy: Was ist 2024 angesagt?

9 Monaten ago
Verzweiflung, Narben, Suizid: War Jugendlich auf Tiktok Wirklich Begegnet. EIN Experiment

Verzweiflung, Narben, Suizid: War Jugendlich auf Tiktok Wirklich Begegnet. EIN Experiment

4 Monaten ago
Live: SpaceX Falcon 9-Rakete startet drittes Paar O3b mPOWER-Satelliten von Cape Canaveral

Live: SpaceX Falcon 9-Rakete startet drittes Paar O3b mPOWER-Satelliten von Cape Canaveral

1 Jahr ago

NACH KATEGORIEN DURCHSUCHEN

  • Auto
  • Gesundheit
  • Lifestyle
  • Reisen und Freizeit
  • Sport
  • Technologie
  • Welt
  • Wirtschaft
Mobellex.de | Online-Möbelhaus

NACH THEMEN DURCHSUCHEN

2024 AOX News App Architekturvisualisierung Berlin Botland Buch CBD-Produkten CCcam Dielendealer E-Girl Entrümpelung Facebook Fische G7 Plus Green Gummies G7 Plus Gummies Gen Z Gewerbeimmobilien Griffe Holz Holzkäfige Horoskop Jade Mario Karaoke Life Coaching Linz Litauen Löwe Metų horoskopas Mr. Food Anklam NATO Orgonit Panotophia.de Rabattcode Rechtsanwalt Seepark Residenz Rügen Selbsthilfebüchern Skorpion Solarmodul Steinbock Top Akustiker Ukraine Wassermann Xi Jinping yummy slim gummies
Mobellex.de | Online-Möbelhaus

BELIEBTE NACHRICHTEN

  • Ansell Energy: Die Gestaltung der Zukunft mit erneuerbaren Energien

    Ansell Energy: Die Gestaltung der Zukunft mit erneuerbaren Energien

    0 shares
    Share 0 Tweet 0
  • Ukraine und Litauen – Gemeinsamkeiten im Kulturerbe

    0 shares
    Share 0 Tweet 0
  • Vom Leistungssport zum Influencer: Kaan, bekannt als „Kaasimo“, erobert die sozialen Medien

    0 shares
    Share 0 Tweet 0
  • Das Metaverse: Was es ist und warum es wichtig ist

    0 shares
    Share 0 Tweet 0
  • Jade Mario Der Amerikanische Sänger und preisgekrönte Songwriter kommt nach Deutschland

    0 shares
    Share 0 Tweet 0

Freunde

SEO und Webentwicklung, CBDnutzen.de, Tiksaviems, REXFEL, Mobellex.de, CBDtropf.de, Travelpearls.ch, Demire.eu, OnePlaceTwoStories.com, CBDFocusblog, Tattoobedarf

365Nachrichten Logo

Wir bringen Ihnen die besten Nachrichten aus aller Welt.

Folgen Sie uns in den sozialen Medien:

Haare transplantieren: Wie Sie sich auf eine erfolgreiche Behandlung vorbereiten

Haare transplantieren: Wie Sie sich auf eine erfolgreiche Behandlung vorbereiten

05/09/2025
Wegen us-exportKontrollen drohten der schweiz engässe Bei Ki-Chips. Nun Macht Trump ein Kehrtwende

Wegen us-exportKontrollen drohten der schweiz engässe Bei Ki-Chips. Nun Macht Trump ein Kehrtwende

05/08/2025

Kategorie

  • Auto
  • Gesundheit
  • Lifestyle
  • Reisen und Freizeit
  • Sport
  • Technologie
  • Welt
  • Wirtschaft
  • Werbung
  • AGB
  • Impressum
  • Datenschutz
  • Kontakt

@ 2025 | 365Nachrichten.de | Online-Nachrichten | Litauische Nachrichten | Spanische Nachrichten | Möbelhaus | Shinobi Coaching | Reisen

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In
No Result
View All Result
  • Auto
  • Welt
  • Gesundheit
  • Reisen und Freizeit
  • Lifestyle
  • Technologie
  • Sport
  • Wirtschaft

@ 2025 | 365Nachrichten.de | Online-Nachrichten | Litauische Nachrichten | Spanische Nachrichten | Möbelhaus | Shinobi Coaching | Reisen