
Zerstörung statt Lösung – Israels Offensive in Gaza eskaliert weiter
Kein Wasser, kein Brot, keine Hoffnung – Gaza am Rande der Katastrophe.
Die aktuelle Lage im Gazastreifen ist von einer eskalierenden humanitären Krise und anhaltenden militärischen Auseinandersetzungen geprägt. Nach dem Bruch der Waffenruhe am 18. März 2025 intensivierte Israel seine Militäroperationen, insbesondere im Süden des Gazastreifens. Verteidigungsminister Israel Katz kündigte an, umfangreiche Gebiete zu „Sicherheitszonen“ zu erklären, um die Hamas zu zerschlagen und Geiseln zu befreien. Diese Maßnahmen führten zu massiven Evakuierungen, insbesondere in der Stadt Chan Junis.
Parallel dazu stoppte Israel die Einfuhr humanitärer Hilfe in den Gazastreifen, da die Hamas einen US-Plan zum Waffenruheabkommen ablehnte. Diese Blockade, die seit dem 2. März 2025 andauert, hat die humanitäre Situation dramatisch verschärft. UN-Organisationen warnen vor katastrophalen Bedingungen, insbesondere für Kinder, da lebenswichtige Hilfsgüter nicht mehr die Bedürftigen erreichen.
Die Gesundheitsversorgung steht kurz vor dem Kollaps. Berichte über Angriffe auf medizinisches Personal und Einrichtungen häufen sich, was die Arbeit von Helfern erheblich erschwert. Die Vereinten Nationen berichten zudem von zunehmenden Evakuierungsanordnungen, die zu Zwangsumsiedlungen der Zivilbevölkerung führen.
Internationale Akteure wie Deutschland, Frankreich und Großbritannien fordern eine sofortige Rückkehr zur Waffenruhe und betonen, dass der Konflikt nicht militärisch gelöst werden könne. Trotz dieser Appelle bleibt die Situation angespannt, und die Zivilbevölkerung leidet unter den fortwährenden Kämpfen und der prekären Versorgungslage.
Insgesamt zeigt sich ein besorgniserregendes Bild: Die militärischen Operationen und die Blockade humanitärer Hilfe verschärfen die ohnehin kritische Lage der Zivilbevölkerung im Gazastreifen. Ein nachhaltiger Frieden erscheint in weiter Ferne, während die humanitäre Krise täglich neue Tiefpunkte erreicht.
In diesem Zusammenhang möchte ich erneut auf die Enthüllungen des israelischen Investigativ-Journalisten Yuval Abraham (+972 MAGAZINE) hinweisen, die vor einem Jahr ans Licht kamen. Seine Recherchen offenbaren, dass offenbar von Anfang an ein perfider Plan existierte, den Gazastreifen in Schutt und Asche zu legen und die Palästinenser dauerhaft aus diesem Gebiet zu vertreiben.
Tödliche Algorithmen: Israels Krieg in Gaza und die erschütternden Enthüllungen um das Spionageprogramm Lavender
In einem der am stärksten überwachten und umkämpften Gebiete der Welt hat ein geheimer Algorithmus offenbar über Leben und Tod entschieden. Die Enthüllungen des israelischen Journalisten Yuval Abraham, veröffentlicht unter anderem durch das Investigativ-Medium +972 Magazine, zeichnen ein verstörendes Bild von Israels Krieg im Gazastreifen. Im Mittelpunkt steht das bislang unbekannte Spionage- und Zielerkennungsprogramm „Lavender“ – eine KI-gestützte Plattform, die angeblich zehntausende Palästinenser automatisiert als Ziele für Luftschläge auswählte.
Die Maschine entscheidet
Laut Abraham verließ sich Israels Militär in der Anfangsphase des Gazakrieges im Herbst 2023 in großem Maße auf „Lavender“, ein Programm, das auf Basis von Metadaten, sozialen Netzwerken, Aufenthaltsorten und anderen geheimen Kriterien potenzielle Hamas-Mitglieder identifizieren soll. Doch das System war – so die Quellen – alles andere als präzise: Bis zu 37.000 Personen soll Lavender als „Ziele“ markiert haben, oft mit minimaler menschlicher Überprüfung.
Besonders brisant: Abraham berichtet, dass es gängige Praxis war, Luftangriffe auf Wohnhäuser durchzuführen, auch wenn sich dort Zivilist:innen aufhielten – solange das Ziel als hoch genug eingestuft wurde. In manchen Fällen wurde sogar akzeptiert, dass „bis zu 15“ zivile Todesopfer pro Angriff als „verhältnismäßig“ galten. Diese Praxis steht in eklatantem Widerspruch zum Völkerrecht.
Automatisierung der Gewalt
Die Enthüllungen werfen tiefgreifende ethische und rechtliche Fragen auf: Darf ein Staat seine Tötungsentscheidungen an Algorithmen delegieren? Wer trägt Verantwortung, wenn ein Computer irrt? Und wie können internationale Institutionen auf eine solche Technologisierung des Krieges reagieren?
Lavender ist nicht das erste KI-System, das im Kontext moderner Kriegsführung eingesetzt wird. Doch der Grad der Automatisierung, den Abraham beschreibt, ist beispiellos. Während Israel offiziell erklärt, alle Angriffe würden „nachrichtendienstlich sorgfältig geprüft“, offenbaren die Aussagen ehemaliger Armeeangehöriger, dass in der Realität oft nur wenige Sekunden für eine sogenannte „Genehmigung“ blieben. Der Mensch wurde zur Kontrollinstanz einer Maschine, die längst den Takt vorgibt.
Die Folgen für Gaza
Seit dem Hamas-Angriff auf Israel am 7. Oktober 2023 hat sich der Gazastreifen in ein Trümmerfeld verwandelt. Laut UN-Angaben wurden bis Anfang 2025 über 30.000 Palästinenser:innen getötet, die Mehrheit davon Zivilist:innen, darunter Tausende Kinder. Viele dieser Angriffe richteten sich gegen Wohnhäuser, Krankenhäuser und Infrastrukturen. Die systematische Anwendung eines algorithmischen Zielsystems wie Lavender verleiht dieser Zerstörung eine zusätzliche Dimension – eine, die kaum juristisch greifbar ist.
Wer kontrolliert den Algorithmus?
Der israelische Staat hat zu den Berichten bislang keine detaillierte Stellung genommen. Inoffizielle Quellen sprechen von „übertriebenen“ Darstellungen und betonen die „Komplexität asymmetrischer Kriegsführung“. Doch internationale Menschenrechtsorganisationen wie Human Rights Watch fordern eine unabhängige Untersuchung. Auch UN-Sonderberichterstatter haben sich besorgt über den Einsatz algorithmischer Zielsysteme geäußert.
Ein zentrales Problem: Die Funktionsweise von Lavender bleibt geheim. Welche Daten wurden eingespeist? Nach welchen Kriterien wurde „Zugehörigkeit zur Hamas“ definiert? Inwiefern wurden Familienmitglieder oder soziale Kontakte ebenfalls als verdächtig eingestuft? Derartige Fragen bleiben unbeantwortet – und lassen viel Raum für Willkür.
Der Mensch hinter der Enthüllung
Yuval Abraham, der Journalist hinter der Veröffentlichung, ist kein radikaler Aktivist, sondern ein anerkannter israelischer Reporter. Seine Arbeit basiert auf Aussagen von sechs israelischen Geheimdienstoffizieren, die aus ethischen Gründen an die Öffentlichkeit traten. Ihre Aussagen sind Teil einer wachsenden Bewegung von Whistleblowern innerhalb Israels, die vor einer Entmenschlichung durch militärische Technologie warnen.
„Wir haben das Töten industrialisiert“, zitiert Abraham einen seiner Gesprächspartner. Und das sei keine Übertreibung: In den ersten Wochen des Krieges sollen täglich bis zu 1000 Ziele bombardiert worden sein – viele davon aufgrund von Lavender-Vorschlägen.
Ein Präzedenzfall?
Was in Gaza geschieht, könnte Schule machen. Die Militarisierung von Künstlicher Intelligenz ist kein israelisches Alleinstellungsmerkmal. Auch die USA, Russland, China und europäische Staaten investieren massiv in KI-gesteuerte Waffensysteme. Der Fall Lavender zeigt, wohin diese Entwicklung führen kann: zu einem Krieg, in dem Menschen nur noch Datenpunkte in einem tödlichen System sind.
Die internationale Gemeinschaft steht nun vor einer Entscheidung: Will sie den Einsatz solcher Systeme dulden – oder klare rote Linien ziehen? Die Geschichte zeigt, dass Technologie selten ungenutzt bleibt, wenn sie einmal entwickelt wurde. Gerade deshalb ist jetzt die Zeit, Grenzen zu setzen – bevor Algorithmen endgültig über Leben und Tod bestimmen.
Bildquellen
- gaza_zerstoerung: Foto von Emad El Byed auf Unsplash
- gaza_krieg: Bild von hosny salah auf Pixabay
- frau_in_truemmern: Bild von hosny salah auf Pixabay
- destruction_gaza: Bild von hosny salah auf Pixabay
- gazastreifen: Bild von hosny salah auf Pixabay
- Titel – Gaza: Bild von hosny salah auf Pixabay


Das könnte auch interessieren.

Tempolimit auf Autobahnen: Zwischen politischem Stillstand und Klimaschutz
2. April 2024
FDP – neuer Beitrag zur Spaltung der Ampel.
12. August 2024