Website-Icon Perspektiven Global

Von „Lavender“ bis „Wo ist Daddy?“: Wie Israel KI-Tools einsetzt, um Hamas-Kämpfer zu treffen

NEU DELHI: Israelische Militäroperationen, die künstliche Intelligenz (KI) einsetzen, um die Hamas-Kämpfer im Gazastreifen zu bekämpfen, haben angesichts der steigenden Zahl von Opfern unter der Zivilbevölkerung die Aufmerksamkeit auf sich gezogen. In einem Bericht der israelischen Zeitschriften +972 Magazine und Local Call wurde der Einsatz von zwei KI-Systemen, „Lavender“ und „Where’s Daddy?“, in dem Konflikt hervorgehoben. „Lavender“ hat die Aufgabe, mutmaßliche Kämpfer und ihre Wohnorte zu identifizieren, während „Where’s Daddy?“ diese Personen bis zu ihren Häusern verfolgt, um Angriffe zu erleichtern, wenn sie zurückkehren.
Das Lavender-System wurde entwickelt, um Personen zu identifizieren, die verdächtigt werden, zu den militärischen Abteilungen der Hamas und Palästinensischer Islamischer Dschihad zu gehören. Nach Berichten von +972 und Local Call hat sich das Militär in der Anfangsphase des Konflikts hauptsächlich auf Lavender verlassen. Diese Abhängigkeit führte dazu, dass das System bis zu 37.000 Palästinenser markierte und sie als Kämpfer – und ihre Wohnorte – für mögliche Luftangriffe verdächtigte.
Die Lavender-Plattform arbeitet neben einem anderen KI-System, „The Gospel“. Ein wesentlicher Unterschied liegt in der Art der Zielerfassung: Während The Gospel Gebäude und Einrichtungen identifiziert, die angeblich von Militanten genutzt werden, konzentriert sich Lavender auf Einzelpersonen, die für eine mögliche Eliminierung bestimmt sind. Das System „Where’s Daddy?“ überwachte diese Zielpersonen und alarmierte das Militär, sobald sie zu ihren Familienwohnsitzen zurückkehrten.
Ein Geheimdienstoffizier verriet: „Die IDF bombardierten ohne zu zögern Häuser, als erste Option. Es ist viel einfacher, das Haus einer Familie zu bombardieren. Das System ist so aufgebaut, dass es in solchen Situationen nach ihnen sucht.“ Diese Vorgehensweise hat oft zu zivilen Opfern geführt, die als „Kollateralschäden“ bezeichnet werden, so der Bericht.
Da das „Lavender“-System jedoch eine Fehlerquote von 10 % aufweist, werden manchmal Personen ins Visier genommen, die keine Verbindungen zu militanten Gruppen haben oder die zufällig den gleichen Namen oder die gleichen Geräte wie die Militanten haben, so der Bericht.
Brianna Rosen, Senior Fellow bei Just Security, vermutet, dass die Fehlerquote noch höher sein könnte. Rosen kritisierte die israelischen Zielkriterien und die Fehlerquoten der KI, die das Risiko für die Zivilbevölkerung vergrößert. Die Offiziere räumten ein, dass die menschliche Aufsicht bei der Identifizierung der Ziele minimal ist und oft nur ein „Stempel“ für die Auswahl der KI darstellt.
Der Bericht geht auch auf Israels Einsatz von billigeren, ungelenkten „stummen“ Bomben ein, mit denen auf Nachwuchsoffiziere gezielt wird, eine Praxis, vor der Präsident Joe Biden gewarnt hat, dass diese „wahllosen Bombardierungen“ die internationale Unterstützung schmälern könnten. Die IDF beharrt darauf, dass ihre Operationen darauf abzielen, den Schaden für die Zivilbevölkerung „so weit wie möglich“ zu reduzieren, und bestreitet, KI-Systeme einzusetzen, um vorherzusagen, ob jemand ein Terrorist ist.
In der Zwischenzeit hat das israelische Militär seinen Rückzug aus Khan Younis, einer Stadt im südlichen Gazastreifen, bekannt gegeben und damit den Abschluss einer entscheidenden Phase seiner Bodenoperation gegen die militanten Hamas-Kämpfer signalisiert. Mit diesem Schritt ist die israelische Truppenpräsenz in der Region auf eines der niedrigsten Niveaus seit Beginn des sechsmonatigen Konflikts gesunken.
Beamte des Verteidigungsministeriums erklärten jedoch am Sonntag, die Truppen würden sich lediglich neu gruppieren, um sich auf einen Vorstoß nach Rafah, die letzte Hochburg der Hamas, vorzubereiten. Israel droht seit Wochen mit einer Bodenoffensive in Rafah. In der Stadt leben etwa 1,4 Millionen Menschen, das ist mehr als die Hälfte der Gesamtbevölkerung von Gaza. Die Möglichkeit einer Offensive hat international Besorgnis ausgelöst, auch bei den Vereinigten Staaten, Israels engstem Verbündeten, die darauf bestanden haben, einen tragfähigen Plan zur Gewährleistung der Sicherheit der Zivilbevölkerung zu sehen.
Trotz des Rückzugs betonten die israelischen Militärs, die aufgrund der Politik der Armee anonym bleiben wollten, dass eine „bedeutende Truppe“ im Gazastreifen verbleibt, um gezielte Operationen fortzusetzen, auch in Khan Younis, der Heimatstadt des Hamas-Führers Yehya Sinwar. Der Rückzug markiert einen wichtigen Punkt in dem anhaltenden Konflikt zwischen Israel und der Hamas, der nun die Sechsmonatsmarke erreicht hat.
(Mit Beiträgen von Agenturen)

https://timesofindia.indiatimes.com/world/middle-east/from-lavender-to-wheres-daddy-how-israel-is-using-ai-tools-to-hit-hamas-militants/articleshow/109133909.cms?rand=351

Es handelt sich hierbei um Veröffentlichungen indischer Onlinemedien. Wir haben diese lediglich übersetzt. Dies soll eine Möglichkeit der freien Willensbildung darstellen. Mehr über uns erfahrt Ihr auf „Über Uns“

Die mobile Version verlassen