UB-Logo Online MagazinUntergrund-Blättle

Die KI-Maschine: Wie Kl im Gaza-Krieg zum Massemordinstrument geworden ist

8660

Wie Kl im Gaza-Krieg zum Massemordinstrument geworden ist Die KI-Maschine

earth-europe-677583-70

Politik

Künstliche Intelligenz (Kl) taugt nicht nur zur Erstellung lustiger Bilder oder nutzt beim Erschleichen akademischer Titel.

Drohnenbild nach einem Bombardement in Deir al-Balah, Gaza, 1. Februar 2024.
Mehr Artikel
Mehr Artikel
Bild vergrössern

Drohnenbild nach einem Bombardement in Deir al-Balah, Gaza, 1. Februar 2024. Foto: Voice of America (PD)

Datum 14. Oktober 2024
6
1
Lesezeit24 min.
DruckenDrucken
KorrekturKorrektur
Sie ist auch ein Herrschaftsinstrument, ein technologischer Angriff, sowie ein entscheidender Baustein in der modernen Kriegsführung. Die Folgen können wir zum Beispiel im Krieg der israelischen Regierung gegen die Hamas beobachten. Die Israelische Armee (IDF) setzt Kl zur Auswahl von Zielen ein. Was sich so harmlos anhört, führt zu automatisiertem Töten und zu zehntausenden Toten in Gaza. Wir denken nicht, dass die IDF brutaler als andere kriegführende Armeen sind.

Sie sind einfach nur in der Lage auf dem neuesten Stand technologischer Entwicklung zu töten und Fortschritt in der Waffentechnologie hat schon immer auch eine effizientere Form des Tötens und der Vernichtung hervorgebracht. So ist es auch bei der Kopplung von Kl mit Bomben und Raketensystemen. Ausserdem hebelt die distanzierte Massentötung per Authorisierung durch die Kl jeden möglichen ethischen Widerspruch aus.

Wer das Inferno in Gaza verstehen will, kommt nicht daran vorbei, den Beitrag zu sehen, den der Einsatz Künstlicher Intelligenz dabei leistet. Diese Entwicklung wird nicht umkehrbar sein, solange die Rechenzentren von Militärs, Staaten und Konzernen funktionieren. Da sind wir uns sicher. Der folgende Text ist zuerst vom Guardian veröffentlicht worden und basiert auf Recherchen der israelischen Investigativ-Plattformen +972 und Local Call. Wir haben ihn eigenmächtig gekürzt, weil er sonst zu lang wäre. Er durchbricht sprachlich und gedanklich nicht die militärische Logik. Das ist manchmal schwer erträglich. Wir denken aber, dass er sehr gut die Perversität militärischen Denkens und die Folgen Kl-basierter Kriegsführung verdeutlicht.

Die KI-Maschine, die Israels Bombenangriffe in Gaza lenkt

Angriffe auf Zielpersonen erledigt Israels Militär oft nachts in deren Zuhause und tötet dabei die gesamte Familie oder auch weitere Menschen, die in dem Haus Schutz gesucht haben. (...)

Eine Recherche der Magazine +972 und Local Call zeigt, dass die israelische Armee ein auf künstlicher Intelligenz basierendes Programm mit dem Namen »Lavendel« entwickelt hat (...). Laut sechs israelischen Geheimdienstoffizieren, die alle während des derzeitigen Krieges im Gazastreifen in der Armee gedient haben und aus erster Hand mit dem Einsatz von Künstlicher Intelligenz (Kl) zur Erstellung von Zielen für die Ermordung [orig.: »assassination«] zu tun hatten, hat Lavendel eine zentrale Rolle bei den beispiellosen Bombenangriffen auf Palästinenser gespielt, insbesondere in der Anfangsphase des Krieges.

Den Quellen zufolge war der Einfluss von Lavendel auf die Operationen des Militärs so gross, dass es die Ergebnisse der KI-Maschine im Wesentlichen so behandelte, »als seien sie eine menschliche Entscheidung«. Offiziell ist das Lavendel-System so konzipiert, dass es alle verdächtigen Mitglieder der militärischen Flügel der Hamas und des Palästinensischen Islamischen Dschihad (PIJ), auch solche mit niedrigen Rängen, als potenzielle Bombenziele markiert. Die Quellen erklärten (...), dass sich die Armee in den ersten Wochen des Krieges fast vollständig auf Lavendel verliess, das bis zu 37.000 Palästinenser als mutmassliche Kämpfer - und ihre Häuser - für mögliche Luftangriffe anzeigte.

In der Anfangsphase des Krieges erteilte die Armee den Offizieren pauschal die Genehmigung, die von Lavendel erstellten Tötungslisten zu übernehmen, ohne sorgfältig zu prüfen, wie die Maschine diese Entscheidungen getroffen hatte, oder die geheimdienstlichen Rohdaten, auf denen sie beruhten, zu untersuchen. Eine Quelle gab an, dass menschliches Personal oft nur als »Erfüllungsgehilfe« für die Entscheidungen der Maschine diente, und fügte hinzu, dass es sich normalerweise nur etwa 20 Sekunden mit jedem Ziel befasse, bevor es einen Bombenangriff genehmige und das nur, um sicherzugehen, dass das von Lavendel markierte Ziel männlich ist. Und das, obwohl es weiss, dass das System in etwa zehn Prozent der Fälle »Fehler« macht und dafür bekannt ist, dass es auch Personen markiert, die nur eine lockere Verbindung oder gar keine Verbindung zu militanten Gruppen haben.

Darüber hinaus griff die israelische Armee die Zielpersonen systematisch an, wenn sie sich in ihren Häusern aufhielten, in der Regel nachts, wenn ihre gesamte Familie anwesend war - und nicht während einer militärischen Aktivität. Den Quellen zufolge lag dies daran, dass es aus nachrichtendienstlicher Sicht einfacher war, die Personen in ihren Privathäusern aufzuspüren.

Zusätzliche automatisierte Systeme, darunter ein System namens »Where's Daddy?«, über das hier erstmals berichtet wird, wurden speziell dafür eingesetzt, die Zielpersonen aufzuspüren und Bombenangriffe durchzuführen, wenn diese die Wohnungen ihrer Familien betreten hatten.

Das Ergebnis ist, wie die Quellen bezeugen, dass Tausende von Palästinensern - die meisten von ihnen Frauen und Kinder oder Menschen, die nicht an den Kämpfen beteiligt waren, aufgrund der Entscheidungen des KI-Programms durch israelische Luftangriffe ausgelöscht wurden, insbesondere in den ersten Wochen des Krieges.

»Wir hatten kein Interesse, [Hamas]-Kräfte nur dann zu töten, wenn sie sich in einem militärischen Gebäude aufhielten oder an einer militärischen Aktivität beteiligt waren«, sagte A., ein Geheimdienstoffizier (...). »Im Gegenteil, die IDF haben sie ohne Zögern in Häusern bombardiert, und zwar als erste Option. Es ist viel einfacher, das Haus einer Familie zu bombardieren. Das System ist darauf ausgelegt, in solchen Umgebungen nach ihnen zu suchen.«

Die Lavendel-Maschine gesellt sich zu einem anderen KI-System, »The Gospel«. Ein grundlegender Unterschied zwischen den beiden Systemen liegt in der Definition des Ziels: Während »The Gospel« Gebäude und Strukturen markiert, von denen aus die Armee behauptet, dass Militante dort operieren, markiert Lavendel Menschen - und setzt sie auf eine Tötungsliste.

Ausserdem zog es die Armee den Quellen zufolge vor, bei Angriffen auf mutmassliche niedrigrangige Militante, die von Lavendel markiert wurden, nur ungelenkte Raketen zu verwenden, die gemeinhin als »dumme« Bomben bekannt sind (im Gegensatz zu »intelligenten« Präzisionsbomben), die ganze Gebäude mitsamt ihren Bewohnern zerstören und erhebliche Verluste verursachen können. »Man will keine teuren Bomben an unwichtige Leute verschwenden das ist sehr teuer für das Land und es gibt einen Mangel an diesen Bomben, sagte C., einer der Geheimdienstler. Eine andere Quelle sagte, dass sie persönlich die Bombardierung von »Hunderten« von Privathäusern mutmasslicher niedrigrangiger Aktivisten, die von Lavendel markiert wurden, genehmigt hätte, wobei bei vielen dieser Angriffe Zivilisten und ganze Familien als »Kollateralschaden« getötet worden seien.

In einem noch nie dagewesenen Vorgehen, so zwei der Quellen, habe die Armee in den ersten Wochen des Krieges entschieden, dass für jeden von Lavendel gekennzeichneten Hamas-Aktivisten bis zu 15 oder 20 Zivilisten getötet werden durften; bis dahin hatte das Militär keine solchen »Kollateralschäden« bei der Ermordung rangniedriger Kämpfer zugelassen. Die Quellen fügten hinzu, dass die Armee bei mehreren Gelegenheiten den Tod von mehr als 100 Zivilisten bei der Ermordung eines einzigen Kommandeurs genehmigt habe, wenn es sich bei dem Ziel um einen hochrangigen Hamas-Funktionär im Rang eines Bataillons oder Brigadekommandeurs handelte.

Die folgende Untersuchung ist nach den sechs chronologischen Phasen der hochautomatisierten Zielerstellung durch die israelische Armee in den ersten Wochen des Gaza-Krieges gegliedert. (...)

Schritt 1: Erstellung von Zielvorgaben

(...) Geheimdienstquellen erklärten (...), dass während früherer Kriege Israels wegen der »besonders brutalen« Art, jemanden zu töten, oft wurde neben dem Ziel auch eine ganze Familie getötet -, (...) menschlichen Ziele sehr sorgfältig markiert wurden und nur hochrangige Militärkommandeure in ihren Häusern bombardiert wurden, um gemäss dem internationalen Recht den Grundsatz der Verhältnismässigkeit zu wahren. Doch nach dem 7. Oktober als von der Hamas angeführte Militante einen tödlichen Angriff auf südisraelische Gemeinden starteten, bei dem etwa 1200 Menschen getötet und 240 entführt wurden - verfolgte die Armee den Quellen zufolge einen grundlegend anderen Ansatz. Im Rahmen der »Operation Eiserne Schwerter« (orig.: »Iron Swords«) beschloss die Armee, alle Aktivisten des militärischen Flügels der Hamas als menschliche Ziele zu bezeichnen, unabhängig von ihrem Rang oder ihrer militärischen Bedeutung. Und das änderte alles.

Die neue Politik stellte den israelischen Geheimdienst auch vor ein technisches Problem. In früheren Kriegen musste ein Offizier, um die Ermordung einer einzelnen Zielperson zu genehmigen, einen komplizierten und langwierigen »Inkriminierungs«-Prozess durchlaufen: Er musste Beweise dafür überprüfen, dass es sich bei der Person tatsächlich um ein ranghohes Mitglied des militärischen Flügels der Hamas handelte, seinen Wohnort und seine Kontaktinformationen herausfinden und schliesslich wissen, wann er tatsächlich zu Hause war. Wenn die Liste der Zielpersonen nur ein paar Dutzend hochrangige Agenten umfasste, konnten die Geheimdienstmitarbeiter die Arbeit, die mit der Inkriminierung und Lokalisierung dieser Personen verbunden war, allein bewältigen.

Als die Liste jedoch auf Zehntausende von Angehörigen niedrigerer Ränge ausgeweitet wurde, sah sich die israelische Armee veranlasst, sich auf automatisierte Software und Künstliche Intelligenz zu verlassen. Das Ergebnis war, so die Quellen, dass die Rolle des menschlichen Bedienpersonals bei der Inkriminierung von Palästinensern als Militärangehörige beiseite geschoben wurde und stattdessen die Kl den Grossteil der Arbeit übernahm. Laut vier der Quellen (...) hat Lavendel - das entwickelt wurde, um menschliche Ziele im gegenwärtigen Krieg zu erstellen - etwa 37.000 Palästinenser als mutmassliche Hamas-Kämpfer, die meisten von ihnen niedrigrangige Kräfte, zur Ermordung markiert (...).

»Wir wussten nicht, wer die niedrigrangigen Aktivisten waren, weil Israel sie [vor dem Krieg] nicht routinemässig verfolgt hat«, erklärte der ranghohe Offizier B. (...) und erläuterte damit den Grund für die Entwicklung dieser besonderen Zielmaschine für den derzeitigen Krieg. »Sie wollten, dass wir [die Niedrigrangigen] automatisch angreifen können. Das ist der Heilige Gral. Sobald man auf Automatik umsteigt, spielt die Zielerstellung verrückt.«

Die Quellen sagten, dass die Genehmigung zur automatischen Übernahme der Tötungslisten von Lavendel, die zuvor nur als ein Hilfsmittel verwendet worden waren, etwa zwei Wochen nach Kriegsbeginn erteilt wurde, nachdem Geheimdienstmitarbeiter die Genauigkeit einer Stichprobe von mehreren hundert vom Kl-System ausgewählten Zielen »manuell« überprüft hatten. Als diese Stichprobe ergab, dass die Ergebnisse von Lavendel eine Genauigkeit von 90 Prozent bei der Identifizierung der Zugehörigkeit einer Person zur Hamas erreicht hatten, genehmigte die Armee den weitreichenden Einsatz des Systems. Wenn Lavendel eine Person als Hamas-Aktivist einstufte, wurde die Armee aufgefordert, dies als Befehl zu behandeln, ohne unabhängig zu prüfen, weshalb die Maschine diese Entscheidung getroffen hatte, oder die geheimdienstlichen Rohdaten, auf denen sie basiert, zu untersuchen, so die Quellen. (...)

Die tödlichen Folgen dieser Lockerung der Beschränkungen in der Anfangsphase des Krieges waren erschütternd. Nach Angaben des palästinensischen Gesundheitsministeriums in Gaza, auf die sich die israelische Armee seit Beginn des Krieges fast ausschliesslich stützt, tötete Israel in den ersten sechs Wochen des Krieges bis zur Vereinbarung eines einwöchigen Waffenstillstands am 24. November rund 15 000 Palästinenser fast die Hälfte der bisherigen Todesopfer. (...) Die Lavendel-Software analysiert die Informationen, die über die meisten der 2,3 Millionen Einwohner des Gazastreifens durch ein System der Massenüberwachung gesammelt wurden, und bewertet und stuft dann die Wahrscheinlichkeit ein, dass die jeweilige Person im militärischen Flügel der Hamas oder des PIJ aktiv ist. Quellen zufolge bewertet die Maschine fast jede einzelne Person im Gazastreifen auf einer Skala von 1 bis 100 und gibt damit an, wie wahrscheinlich es ist, dass es sich um einen Kämpfer handelt.

Lavendel lerne, Merkmale bekannter Hamas und PIJ-Aktivisten zu erkennen, deren Informationen als Trainingsdaten in die Maschine eingespeist wurden, und dann dieselben Merkmale — auch »Features« genannt in der allgemeinen Bevölkerung zu lokalisieren, er klärten die Quellen. Eine Person, die mehrere verschiedene belastende Merkmale aufweist, erreicht eine hohe Bewertung und wird damit automatisch zu einem potenziellen Ziel für die Ermordung. (...)

»Je mehr Informationen und je mehr Auswahl, desto besser«, schreibt [ein] Kommandeur. »Visuelle Informationen, Informationen über Mobiltelefone, Verbindungen zu sozialen Medien, Informationen über das Einsatzgebiet, Telefonkontakte, Fotos.« Während anfangs Menschen diese Merkmale auswählen, so der Kommandeur weiter, wird die Maschine mit der Zeit selbständig Merkmale identifizieren. Auf diese Weise könnten die Streitkräfte »Zehntausende von Zielen« erstellen, wobei die eigentliche Entscheidung darüber, ob sie angegriffen werden sollen oder nicht, weiterhin von Menschen getroffen wird.

Die Vortragsfolien [eines IDF Kommandeurs] zeigen, wie die Maschine funktioniert: Sie wird mit Daten über bestehende Hamas-Aktivisten gefüttert, lernt, deren Merkmale zu erkennen, und bewertet dann andere Palästinenser danach, wie ähnlich sie den Kämpfern sind. (...)

B., ein ranghoher Offizier, der Lavendel eingesetzt hat, erklärte, dass die Offiziere im derzeitigen Krieg nicht verpflichtet gewesen seien, die Einschätzungen des KI-Systems unabhängig zu überprüfen, um Zeit zu sparen und die Massenproduktion menschlicher Ziele ohne Hindernisse zu ermöglichen. »Alles war statistisch, alles war sauber - es war sehr trocken«, sagte B. Er merkte an, dass dieser Mangel an Überwachung zugelassen worden sei, obwohl interne Überprüfungen gezeigt hätten, dass Lavendels Berechnungen nur in 90 Prozent der Fälle korrekt waren; mit anderen Worten, es war im Voraus bekannt, dass zehn Prozent der für die Ermordung vorgesehenen menschlichen Ziele gar keine Mitglieder des militärischen Flügels der Hamas waren.

So erklärten Quellen, dass die Lavendel-Maschine manchmal fälschlicherweise Personen markiert habe, die Kommunikationsmuster aufwiesen, die bekannten Hamas oder PIJ-Aktivisten ähnelten, darunter Mitarbeiter der Polizei und des Zivilschutzes, Verwandte von Kämpfern, Einwohner, die zufällig einen Namen und Spitznamen hatten, der mit dem eines Funktionsträgers identisch war, und Bewohner des Gazastreifens, die ein Gerät benutzten, das einst einem Hamas-Aktivisten gehörte. (...)

Probleme gibt es bei der Fähigkeit von Zielmaschinen, das Telefon einer für ein Attentat markierten Person zu bewerten. »Im Krieg wechseln die Palästinenser ständig ihre Telefone«, sagte die Quelle. »Die Leute verlieren den Kontakt zu ihren Familien, geben ihr Telefon an einen Freund oder eine Frau weiter und verlieren es vielleicht. Es gibt keine Möglichkeit, sich zu 100 Prozent auf den automatischen Mechanismus zu verlassen, der bestimmt, welche [Telefon-]Nummer zu wem gehört.«

Den Quellen zufolge wusste die Armee, dass die geringe menschliche Aufsicht diese Fehler nicht aufdecken konnte. »Es gab keine Nullfehlerpolitik. Fehler wurden statistisch behandelt«, sagte eine Quelle, die Lavendel benutzte. »Aufgrund des Umfangs und der Grössenordnung lautete das Protokoll: Selbst wenn man nicht sicher weiss, dass die Maschine richtig ist, weiss man, dass sie statistisch gesehen richtig liegt. Also macht man es.« (...)

Eine andere Geheimdienstquelle, die das Vertrauen in die von Lavendel erstellten Tötungslisten palästinensischer Verdächtiger verteidigte, argumentierte, dass es sich nur dann lohne, die Zeit eines Geheimdienstmitarbeiters zu investieren, um die Informationen zu überprüfen, wenn es sich bei der Zielperson um einen hochrangigen Hamas-Kommandeur handele. »Wenn es sich aber um einen niedrigrangigen Kämpfer handelt, will man keine Arbeitskraft und Zeit investieren«, sagte er. »Im Krieg hat man keine Zeit, jedes Ziel zu überprüfen. Also ist man bereit, die Fehlermarge beim Einsatz künstlicher Intelligenz in Kauf zu nehmen, Kollateralschäden und den Tod von Zivilisten zu riskieren und damit zu leben, dass man aus Versehen angreift.«

B. sagte, der Grund für diese Automatisierung sei ein ständiger Druck, mehr Ziele für die Ermordung zu generieren. »An einem Tag, an dem es keine Ziele gab [deren Merkmalseinstufung ausreichte, um einen Angriff zu genehmigen], griffen wir mit einer niedrigeren Schwelle an. Wir wurden ständig unter Druck gesetzt: »Bringt uns mehr Ziele«. Sie schrien uns regelrecht an. Wir haben unsere Ziele sehr schnell erledigt [orig: »killing.«] Er erläuterte, dass Lavendel bei einer Senkung der Bewertungsschwelle mehr Personen als Angriffsziele markierte. »In der Spitze konnte das System 37.000 Personen als potenzielle menschliche Ziele identifizieren«, sagte B.(...)

Quellen zufolge bestand das einzige menschliche Überwachungsprotokoll vor der Bombardierung von Häusern mutmasslicher niedrigrangiger Kämpfer, die von Lavendel markiert wurden, in einer einzigen Überprüfung: Es wurde sichergestellt, dass das von der Kl ausgewählte Ziel männlich und nicht weiblich ist. In der Armee ging man davon aus, dass, wenn das Ziel eine Frau war, die Maschine wahrscheinlich einen Fehler gemacht hatte, weil es in den Reihen der militärischen Flügel von Hamas und PIJ keine Frauen gibt. (...)

»Für die Überprüfung, ob es sich um eine männliche oder weibliche Person handelt, würde ich im derzeitigen Krieg 20 Sekunden pro Zielperson investieren und jeden Tag Dutzende davon durchführeng, so B. »Ich hatte als Mensch keinerlei Mehrwert, ausser dass ich dem Vorgang den Stempel aufdrücken sollte. Das sparte eine Menge Zeit. Wenn [die Zielperson] im automatischen Mechanismus auftauchte und ich überprüfte, dass es sich um einen Menschen handelte, gab es die Erlaubnis, ihn zu bombardieren, vorbehaltlich einer Prüfung der Kollateralschäden.«

In der Praxis bedeutete dies, dass es für Zivilisten, die von Lavendel irrtümlich markiert wurden, keinen Aufsichtsmechanismus gab, um den Fehler zu entdecken. Laut B. trat ein häufiger Fehler auf, »wenn die [Hamas-]Zielperson [ihr Telefon] ihrem Sohn, ihrem älteren Bruder oder einfach einem beliebigen Mann gab. Diese Person wird dann in ihrem Haus mit ihrer Familie bombardiert. Das kam häufig vor. Das waren die meisten Fehler, die durch Lavendel verursacht wurden.«

Schritt 2: Verknüpfung von Zielen mit Wohnhäusern von Familien

Der nächste Schritt im Ermordungsverfahren der israelischen Armee besteht darin, herauszufinden, wo die Ziele, die Lavendel generiert, angegriffen werden sollen. (...)

Die sechs Quellen, mit denen wir sprachen (...) sagten, dass das ausgedehnte Tunnelsystem der Hamas absichtlich unter Krankenhäusern und Schulen hindurchführt, dass Hamas-Kämpfer Krankenwagen benutzen, um sich fortzubewegen, und dass zahllose militärische Einrichtungen in der Nähe von zivilen Gebäuden aufgestellt wurden. (...)

Im Gegensatz zu den offiziellen Erklärungen der israelischen Armee erklärten die Quellen jedoch, dass ein wesentlicher Grund für die beispiellose Zahl der Todesopfer bei den derzeitigen israelischen Bombardierungen darin liegt, dass die Armee systematisch Ziele in ihren Privathäusern und mit ihren Familien angegriffen hat — zum Teil deshalb, weil es aus geheimdienstlicher Sicht einfacher war, Familienhäuser mit Hilfe automatischer Systeme zu markieren. (...)

Die Quellen erklärten (...), dass die Überwachungssysteme der Armee Personen leicht und automatisch mit Wohnhäusern »verknüpfen« könnten, da jeder in Gaza ein privates Haus habe, dem er zugeordnet werden könne. Um den Moment, in dem die Aktivisten ihre Häuser betreten, in Echtzeit zu identifizieren, wurden verschiedene zusätzliche automatische Softwareprogramme entwickelt. Diese Programme verfolgen Tausende von Personen gleichzeitig, erkennen, wann sie zu Hause sind, und senden einen automatischen Alarm an den Zieloffizier, der dann das Haus für die Bombardierung markiert. (...)

»Man gibt Hunderte [von Zielen] in das System ein und wartet ab, wen man töten kann«, so eine Quelle, die das System kennt. »Das nennt man ausgedehnte Jagd: Man kopiert von den Listen, die das Zielsystem erstellt.«Ein Beweis für diese Politik sind auch die Daten: Im ersten Monat des Krieges gehörten mehr als die Hälfte der Todesopfer - 6120 Menschen - zu 1340 Familien, von denen nach UN-Angaben viele in ihren Häusern vollständig ausgelöscht wurden. (...)

Eine andere Quelle sagte, dass jedes Mal, wenn das Tempo der Angriffe nachliess, weitere Ziele in Systeme wie »Where's Daddy?« aufgenommen wurden, um Personen ausfindig zu machen, die ihre Häuser betraten und daher bombardiert werden konnten.(...) Die Quellen sagten, dass in den ersten zwei Wochen des Krieges zunächst »mehrere tausend« Ziele in Ortungsprogramme wie »Where's Daddy?« eingegeben wurden. Dazu gehörten alle Mitglieder der Hamas-Eliteeinheit Nukhba, alle Panzerabwehrspezialisten der Hamas und alle Personen, die am 7. Oktober Israel betreten hatten. Doch schon bald wurde die Tötungsliste drastisch erweitert. »Am Ende waren es alle [von Lavendel markierten] Personen«, erklärte eine Quelle. »Zehntausende. Dies geschah ein paar Wochen später, als die [israelischen] Brigaden in den Gazastreifen eindrangen und es bereits weniger unbeteiligte Menschen [das heisst Zivilisten] in den nördlichen Gebieten gab.«(...)

Durch das Hinzufügen eines Namens (...) werde die markierte Person unter ständige Überwachung gestellt und könne angegriffen werden, sobald sie ihr Haus betritt, wodurch das Haus mit allen darin befindlichen Personen zusammenstürzt. (...)

Schritt 3: Auswahl einer Waffe

»Wir führten die Anschläge in der Regel mit ‚dummen Bomben« aus.« Sobald Lavendel eine Zielperson für die Ermordung markiert hat, Armeeangehörige überprüft haben, dass es sich um einen Mann handelt, und eine Ortungssoftware die Zielperson in ihrem Haus lokalisiert hat, besteht der nächste Schritt darin, die Munition auszuwählen, mit der sie bombardiert werden soll.

Im Dezember 2023 berichtete CNN, dass nach Schätzungen des USGeheimdienstes etwa 45 Prozent der von der israelischen Luftwaffe im Gazastreifen eingesetzten Munition »dummeBomben« gewesen seien, von denen bekannt ist, dass sie grössere Kollateralschäden verursachen als Lenkbomben. (...)

Drei Geheimdienstquellen erklärten (...), dass die von Lavendel markierten niedrigrangigen Aktivisten nur mit dummen Bomben ermordet wurden, um teurere Rüstungsgüter zu sparen. Eine Quelle erklärte, dass die Armee ein niedrigrangiges Ziel nicht angreifen würde, wenn dieses in einem Hochhaus wohnte, weil sie keine präzisere und teurere »Etagenbombe« (mit begrenzterer Kollateralwirkung) ausgeben wolle, um es zu töten. Wenn aber ein niedrigrangiges Ziel in einem Gebäude mit nur wenigen Stockwerken wohnte, war die Armee befugt, das Ziel und alle anderen Bewohner des Gebäudes mit einer tödlichen Bombe zu töten. »So war es auch bei allen niedrigrangigen Zielen«, sagte C. aus, der im derzeitigen Krieg verschiedene automatisierte Programme verwendet. »Die einzige Frage war, ob es möglich ist, das Gebäude unter Berücksichtigung der Kollateralschäden anzugreifen. Denn in der Regel führten wir die Angriffe mit tödlichen Bomben durch, und das bedeutete, dass wir buchstäblich das ganze Haus mitsamt seinen Bewohnern zerstörten. (...). Aufgrund des Systems nehmen die Ziele nie ein Ende. Es warten weitere 36000.«

Schritt 4: Die Genehmigung ziviler Opfer

(...) Eine Quelle sagte, dass in den ersten Wochen des Krieges die Anzahl der Zivilisten, die bei Angriffen auf niedrigrangige Kräfte, einschliesslich der von Kl-Systemen wie Lavendel markierten, getötet werden durften, auf bis zu 20 festgelegt war. Eine andere Quelle behauptet die Zahl habe bis zu 15 betragen. Diese »Kollateralschaden« niedrigrangigen Kämpfer angewandt, unabhängig von ihrem Rang, ihrer militärischen Bedeutung und ihrem Alter, und ohne spezifische Einzelfallprüfung, um den militärischen Vorteil ihrer Ermordung gegen den Laut A., der im laufenden Krieg Offizier in einem Raum für gezielte Operationen war, hat die Abteilung für internationales Recht der Armee noch nie zuvor eine so »pauschale Genehmigung« für ein so hohes Mass an Kollateralschäden erteilt. »Es geht nicht nur darum, dass man jede Person eindeutig erlaubt und legitim ist«, sagte A. »Aber sie sagen einem direkt: Ihr dürft sie zusammen mit vielen Zivilisten töten.«

»Jede Person, die in den vergangenen ein oder zwei Jahren eine HamasUniform getragen hat, könnte bombardiert werden, wobei 20 [Zivilisten als] Kollateralschaden getötet werden, auch ohne besondere Genehmigung«, so A. weiter. »In der Praxis existierte der Grundsatz der VerhältLaut A. war dies die meiste Zeit seiner Dienstzeit die Politik. Erst später habe das Militär den Grad der Kollateralschäden gesenkt. »Bei dieser Berechnung konnten es auch 20 Kinder für einen niedrigrangigen Offizier sein ... Das war früher wirklich nicht so«, erklärte A. Auf die Frage nach den sicherheitspolitischen Gründen, die hinter dieser Politik stehen, antwortete A.: »Tödlichkeit.«

Der vorgegebene und festgelegte Faktor für Kollateralschäden trug dazu ne zu beschleunigen, so die Quellen, da dies Zeit sparte. B. behauptete, dass die Zahl der Zivilisten, die sie in der ersten Woche des Krieges pro mutmasslichem, von der Kl markiertem niedrigrangigen Kämpfer töten durften, 15 betrug, dass diese Zahl aber im Laufe der Zeit »hoch und runter« ging. »Am Anfang haben wir fast ohne Rücksicht auf Kollateralschäden angegriffen«, sagte B. über die erste Woche nach dem 7. Oktober. (...) Kämpfer nur in den ersten ein oder zwei Wochen des Krieges stattfanden und dann grösstenteils eingestellt wurden, um keine Bomben zu verschwenden. »Es gibt eine Munitionswirtschaft«, sagte E.. »Sie hatten immer Angst, dass es im Norden [mit der Hisbollah im Libanon] einen Krieg geben könnte. Sie greifen diese Art von [niedrigrangigen] Leuten überhaupt nicht mehr an.«

Die Luftangriffe auf hochrangige Hamas-Kommandeure dauern jedoch noch an, und Quellen zufolge genehmigt das Militär bei diesen Angriffen die Tötung von »Hunderten« von Zivilisten pro Ziel (...).

»Bei der Bombardierung des Kommandeurs des Shuja'iya-Bataillons B. an eine Bombardierung am 2. Dezember, die nach Angaben des IDFSprechers auf die Ermordung von Wisam Farhat abzielte. (...) Geheimdienstquellen berichteten (...), dass sie an noch tödlicheren AnZentralen Gaza-brigade der Hamas, zu ermorden Luftangriffen auf das Flüchtlingslager Al-Bureij am 17. Oktober genehmigt, nachdem Nofal nicht genau lokalisiert werden konnte. Satellitenaufnahmen und Videos vom Ort des Geschehens zeigen die Zerstörung mehrerer grosser mehrstöckiger Wohngebäude. »Zwischen 16 und 18 Häuser wurden bei dem Angriff ausgelöscht«, sagte Amro Al-Khatib, ein Bewohner des Lagers (...)

Eine weitere Geheimdienstquelle berichtete (...), dass die Armee Mitte Dezember ein Hochhaus in Rafah zerstörte und dabei »Dutzende von Zivilisten« tötete, um zu versuchen, Mohammed Shabaneh, den Kommandeur der Rafah-Brigade der Hamas, zu töten (es ist nicht klar, ob er bei dem Angriff umgekommen ist oder nicht). Oft, so die Quelle, versteckten sich hindurchführten, so dass die Entscheidung, sie mit einem Luftangriff zu töten, zwangsläufig auch Zivilisten töte. (...)

»Es gab eine völlig laxe Politik in Bezug auf die Opfer von [Bombenangriffen] — so lax, dass sie meiner Meinung nach ein Racheelement hatte«, erklärte D., eine Geheimdienstquelle. »Der Kern dieser Politik war die Ermordung hochrangiger [Hamasund PlJ-Kommandeure], für die sie bereit waren, Hunderte von Zivilisten zu töten. Wir hatten eine Berechnung: so viele für einen Brigadekommandeur, so viele für einen Bataillonskommandeur, und so weiter.«»Es gab Vorschriften, aber sie waren einfach sehr grosszügig«, sagte E., eine weitere Geheimdienstquelle. (...)

»Uns wurde gesagt: »Bombardiert alles, was ihr könnt.«« Alle für diese Untersuchung befragten Quellen sagten, dass die Massaker der Hamas am 7. Oktober und die Entführung der Geiseln die Feuerpolitik der Armee und den Grad der Kollateralschäden stark geprägt hätten. »Am Anfang war die dem /. Uktober In die Armee eingezogen wurde und In einen vier Gebäude, wenn sie wussten, dass sich die Zielperson in einem von ihnen befand. Es war Wahnsinn.« (...)

Schritt 5: Berechnung der Kollateralschäden

(...) Im Oktober berichtete die »New York Times« über ein von einer speziellen Basis im Süden Israels betriebenes System, das Informationen von Mobiltelefonen im Gazastreifen sammelt und dem Militär eine Echtzeitschätzung der Zahl der Palästinenser liefert, die aus dem nördlichen Gazastreifen nach Süden geflohen sind. Brigadegeneral Udi Ben Muha erklärte gegenüber der Zeitung: »Es ist kein 100-prozentig perfektes System aber es liefert die Informationen, die man braucht, um eine Entscheidung zu treffen.« Das System funktioniert nach Farben: Rot markiert Gebiete, in denen sich viele Menschen aufhalten, und Grün und Gelb markieren Gebiete, die relativ frei von Bewohnern sind.

Die Quellen (...) beschrieben ein ähnliches System zur Berechnung von Kollateralschäden, das verwendet wurde, um zu entscheiden, ob ein Gebäude in Gaza bombardiert werden sollte. Sie sagten, dass die Software die Anzahl der Zivilisten, die vor dem Krieg in jedem Haus wohnten, errechnete indem sie die Grösse des Gebäudes und die Liste der Bewohner überprüfte und dann diese Zahlen um den Anteil der Bewohner reduzierte, die das Viertel angeblich verlassen hatten. Wenn die Armee beispielsweise annahm, dass die Hälfte der Bewohner eines Viertels weggezogen war, zählte das Programm ein Haus, in dem normalerweise zehn Menschen lebten, als ein Haus mit fünf Bewohnern. Um Zeit zu sparen, so die Quellen, habe die Armee die Häuser nicht wie bei früheren Operationen überprüft, um herauszufinden, ob die Schätzung des Programms tatsächlich zutraf.

»Das Modell hatte keinen Bezug zur Realität«, erklärte eine Quelle. »Es gab keine Verbindung zwischen denjenigen, die sich jetzt, während des Krieges, in dem Haus aufhielten, und denjenigen, die vor dem Krieg als dort wohnend angegeben waren. [In einem Fall] haben wir ein Haus bombardiert, ohne zu wissen, dass sich darin mehrere Familien gemeinsam versteckt hielten.«Die Quelle sagte, dass die Armee zwar gewusst habe, dass solche Fehler auftreten könnten, aber dennoch dieses ungenaue Modell angewandt worden sei, weil es schneller war. Die Quelle sagte, dass »die Berechnung der Kollateralschäden völlig automatisch und statistisch erfolgte« und sogar Werte ergeben habe, die nicht ganzzahlig waren.

Schritt 6: Bombadierung eines Familienhauses

Die Quellen (...) erklärten, dass zwischen dem Moment, in dem Ortungssysteme wie »Where's Daddy?« einen Offizier darauf hinweisen, dass eine Zielperson ihr Haus betreten hat, und der eigentlichen Bombardierung manchmal eine beträchtliche Lücke klaffe — was dazu führe, dass ganze Familien getötet würden, auch ohne dass das Ziel der Armee getroffen werde. »Es ist mir schon oft passiert, dass wir ein Haus angegriffen haben, aber die Person gar nicht zu Hause war«, sagte eine Quelle. »Das Ergebnis ist, dass man eine Familie ohne Grund getötet hat.« (...) »Manchmal war [die Zielperson] vorher zu Hause und ging dann nachts woanders schlafen, zum Beispiel im Untergrund, und sie wussten nichts davon«, sagte eine der Quellen. »Es gibt Zeiten, in denen man den Standort doppelt überprüft, und es gibt Zeiten, in denen man einfach sagt: »Okay, er war in den letzten paar Stunden im Haus, also kann man einfach bombardieren.«

Eine andere Quelle beschrieb einen ähnlichen Vorfall, der sie betroffen machte und sie dazu veranlasste, für diese Recherche befragt zu werden. Wir gingen davon aus, dass die Zielperson um 20 Uhr zu Hause war. Schliesslich bombardierte die Luftwaffe das Haus um drei Uhr morgens. In dem Gebäude, das wir bombardiert haben, waren noch zwei andere Familien mit Kindern.« (...)

Yiival Abraham für +972 und Local Call

Wir haben die Übersetzung des nd genutzt und nicht sprachlich überarbeitet, was das gendern der Sprache angeht.

Antimilitarist_innen