Suche
Close this search box.

Tötet israelische KI selbstständig Palästinenser?

Die israelische Armee setzt laut Insidern eine Software mit Künstlicher Intelligenz dazu ein, mögliche Ziele für die Tötung von Hamas-Terroristen im Gazastreifen zu erkennen. Kritiker bemängeln, die Armee gehe hier zu weit, die Fehlerquote sei viel zu hoch.
Von Jörn Schumacher

Nach dem Massaker vom 7. Oktober 2023 war und ist die israelische Armee bemüht, beteiligte Aktivisten zu töten. Rund 1.200 Menschen wurden ermordet und 240 entführt, als Hamas-Terroristen einen Großangriff auf Zivilisten im Süden Israels durchführten.

Die Armee muss bei der Suche nach Beteiligten mit großer Präzision vorgehen und entscheiden, welche Personen Terroristen sind, und welche Zivilisten. Sie setzt dabei Künstliche Intelligenz (KI) ein. Insider haben nun berichtet, dass die Offiziere sogar angewiesen worden seien, die Vorschläge des Computersystems quasi automatisch in eine Tötung umzusetzen. Kritiker sagen, die Armee gehe mit dem Vertrauen auf eine KI zu weit, angesichts von unschuldigen Menschenleben sei die Fehlerquote zu hoch.

Das israelische Online-Magazin mit dem Namen „+972“, der von der Telefon-Ländervorwahl für Israel herrührt, hat gemeinsam mit der hebräischsprachigen Nachrichtenseite „Local Call“ (Sikha Mekomit) einen ausführlichen Artikel dazu veröffentlicht. Sechs Quellen aus der Armee, die anonym bleiben wollten, berichten den Journalisten, dass der Gegenschlag der israelischen Armee gegen Hamas-Terroristen zu einem Umdenken in der Taktik geführt habe.

In früheren Kriegen musste ein Offizier, um die Tötung eines einzelnen menschlichen Ziels zu genehmigen, einen komplexen und langwierigen Prozess durchlaufen. Es wurden Beweise überprüft, dass es sich bei der Person tatsächlich um ein hochrangiges Mitglied des militärischen Flügels der Hamas handelte. Hier sollte eine automatisierte Software mit einer Künstlichen Intelligenz helfen.

Den Informanten zufolge hat die israelische Armee ein auf Künstlicher Intelligenz basierendes Programm namens „Lavender“ entwickelt. Das KI-System habe insbesondere in der Anfangsphase des Gazakrieges eine große Rolle bei der Identifizierung von möglichen Palästinensern gespielt, die getötet werden sollten. Den sechs israelischen Geheimdienstoffizieren zufolge seien die Ergebnisse der KI im Wesentlichen so behandelt worden, als ob es sich um einen menschlichen Entscheidungsträger handele.

Trefferquote von 90 Prozent

Das Lavender-System ist darauf ausgelegt, alle mutmaßlichen Aktivisten in den militärischen Flügeln der Hamas und der Terror-Miliz „Palästinensischer Islamischer Dschihad“ (PIJ) und deren Wohnhäuser als potenzielle Ziele von Luftangriffen zu markieren. Lavender hat dies laut der Quellen in bis zu 37.000 Fällen getan.

Die israelischen Informanten sagten, dass zwei Wochen nach Kriegsbeginn die KI von den Offizieren nicht mehr nur benutzt worden sei, um die Vorschläge für die Angriffsziele zu verwenden, sondern die Genehmigungen quasi automatisch erteilt worden seien. Dabei sei bekannt, dass das System in etwa 10 Prozent der Fälle fehlerhaft entscheide und gelegentlich Personen markiere, die nur eine lose oder gar keine Verbindung zu militanten Gruppen haben.

Zwei der Quellen sagen, die Armee habe mögliche Kollateralschäden bei Angriffen definiert. So seien bei der Tötung von rangniedrigen Hamas-Aktivisten bis zu 15 oder 20 Zivilisten noch akzeptabel; hochrangige Hamas-Terroristen könnten notfalls auch die Tötung von mehr als 100 Zivilisten erfordern.

Eine solche Berechnung möglicher Kollateralschäden ist in der Terrorbekämpfung nicht unüblich. So hat auch der US-amerikanische Geheimdienst mögliche Kollateralschäden bei bestimmten Operationen auf Zahlen eingegrenzt. Bei der Bekämpfung des IS im Irak und in Syrien etwa wich die amerikanische Armee im Jahr 2021 von der Zahl der Kollateralschäden von 15 Zivilisten teilweise ab, sagte der stellvertretende Befehlshaber für Operationen im Kampf gegen den IS, Peter Gersten, gegenüber einem amerikanischen Magazin zu Verteidigungstechnologie. „Bei Osama Bin Laden hatte man einen NCV von 30 festgelegt“, fügte Gersten hinzu, „wenn Sie einen Kommandeur auf niedriger Ebene haben, ist der NCV normalerweise gleich Null.“ Die Abkürzung NCV steht für „Non-Combatant Casualty Value“ – Wert der nicht am Kampf beteiligten Opfer.

Armee: „Jeder Angriff wird genau geprüft“

Die Lavender-Software analysiert Informationen, die über ein Massenüberwachungssystem über die meisten der 2,3 Millionen Einwohner des Gazastreifens gesammelt wurden. Sie bewertet dann die Wahrscheinlichkeit, dass eine Person im militärischen Flügel der Hamas oder des PIJ aktiv ist.

Den Quellen zufolge versieht die Maschine fast jede Person in Gaza mit einem Wert zwischen 1 und 100, der angibt, wie wahrscheinlich es ist, dass sie ein Militanter ist. Der Autor des 2021 erschienenen Buches „Mensch-Maschine-Team“ über KI in der israelischen Armee schreibt, dass es hier etwa um visuelle Informationen gehe, um Mobilfunkinformationen, Gehaltslisten, Social-Media-Verbindungen, Telefonkontakte und Fotos.

In einer Erklärung gegenüber „+972“ und „Local Call“ bestritt ein Armeesprecher den Einsatz Künstlicher Intelligenz zur Erfassung von Zielen. Es handele sich dabei lediglich um „Hilfsinstrumente, die Offizieren bei der Suche nach Schuldigen helfen“. In der Erklärung heißt es weiter: „In jedem Fall ist eine unabhängige Untersuchung durch einen Geheimdienst-Analysten erforderlich, der bestätigt, dass es sich bei den identifizierten Zielen um legitime Angriffsziele gemäß den in den Richtlinien der israelischen Armee und dem Völkerrecht festgelegten Bedingungen handelt.“

Der Militärsprecher erinnerte daran, dass die Hamas ihre Agenten und militärischen Mittel im Herzen der Zivilbevölkerung platziert und die Zivilbevölkerung als menschliche Schutzschilde benutzt. Betroffen seien zivile Strukturen wie Krankenhäuser, Moscheen, Schulen und UN-Einrichtungen. Die Terrorgruppe hat zudem ein ausgedehntes Tunnelsystem unter Krankenhäusern und Schulen gebaut, ihre Kämpfer benutzen Krankenwagen, um sich fortzubewegen. In der Erklärung heißt es, die israelische Armee führe keine Angriffe durch, wenn der zu erwartende Kollateralschaden im Verhältnis zum militärischen Vorteil übermäßig hoch sei.

Bitte beachten Sie unsere Kommentar-Richtlinien

Schreiben Sie einen Kommentar

5 Antworten

  1. Ich finde es richtig, dass die IDF alle verfügbaren Mittel einsetzt, um Terroristen auszuschalten.
    Terroristen fragen auch nicht, ob deren Morde vertretbar sind.
    Israel steht unter Beschuss von vielen Feinden, es darf KEINE Resourcen-Verschwendung im Gaza geben.
    Ich wünsche der IDF viel Erfolg, dass die HAMAS alsbald besiegt ist, denn der große Feind wartet schon:
    Der Iran. Und die Iranische Atombombe ist auch nicht mehr weit, fern sind die echten deutschen Unterstützungen. Deutsche Politik redet gern, andere, wie FRA,UK,USA, Jordanien u,a, haben gegen den Iran-Angriff geholfen. IDF muss mit voller Kraft agieren, es darf keine Rücksicht genommen werden im Falle von Terroristen !

    19
  2. Meine Frage dazu wäre, wieso sprechen ranghohe Offiziere mit Journalisten über KI Operationen? Und wenn IL Künstliche Intelligenz benutzt um Hamas Führer und Terror Unterstützer aufzuspüren, warum haben sie Sinwar noch nicht erwischt? In Rafah?
    Dieser Krieg in Gaza brodelt seit 2005, als IL den Küstenstreifen komplett verließ. Ohne dort gewählte Hamas, deren Charta mit judenfreies Land im Nahen Osten, Militärlager unter Kliniken, Kitas, Schulen, Moscheen, Unterstützung von Zivilen, Ärzten, Lehrern, UNRWA, Terror- Camps für Kleinkinder usw., könnte die ganze Region friedlich leben. Nein, im WJL die Hetze von Abbas, der von EU und BRD finanziert wird. Hohe Kriminalität, Terrorzellen usw. Dazu Finanziers wie Katar, Iran. Mörder wie Hisbollah, Huthis, Islamischer Dschihad. Wie soll da Frieden entstehen?
    KI wird es künftig von Terrorstaaten zum Töten genutzt? Manche Erfindungen sollten nicht auf den Markt geworfen werden, obwohl KI friedlich, auch in der Medizin genutzt wird. Ich habe ganz andere Gedanken. Schlägt IL zurück nach dem Angriff des Iran auf Israel? Was dann? Verbündete werden es nicht unterstützen. Shalom
    OT: Welt in Aufruhr – sagte bereits 1934 Marc Chagall in Tel Aviv. Und heute ist es nicht viel besser, weil einige Idioten Menschen und Länder beherrschen wollen.

    11
    1. Warum haben sie Sinwar noch nicht erwischt? Ich nehme an, der hat sich mit Geiseln umgeben, und Israel will diese mit Recht nicht gefährden.
      Aber auch dieser Verbrecher wird sich einmal vor dem allmächtigen Gott verantworten müssen. Und dann wird er sich nicht hinter Zivilisten verstecken können.

      5
      1. Und sitzt in den Tunneln. Das Aufspüren ist das eine, das erwischen dann das andere. Deswegen ist die Offensive in Rafah auch so wichtig.

        3
    2. Sinwar hockt, denke ich, igendwo in einem Tunnel. Wäre er oben, hätte man ihn längst lokalisiert, angefangen mit dem Telefon – auch wenn er es wechselt. Die KI wird bestimmt auch mithelfen nur bestimmte Genträger erkennen zu können und zu eliminieren.

      3

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Offline, Inhalt evtl. nicht aktuell

Israelnetz-App installieren
und nichts mehr verpassen

So geht's:

1.  Auf „Teilen“ tippen
2. „Zum Home-Bildschirm“ wählen