System Lawenda ma być używany do ataków na bojowników. Armia izraelska używa sztucznej inteligencji (AI) do identyfikacji w Strefie Gazy bojowników Hamasu, którzy są celem ostrzałów lotniczych – podały media izraelskie i brytyjskie. Uważają one, że zbyt mały nadzór ludzki nad działaniem systemów AI podnosi liczbę postronnych ofiar. Izraelsko-palestyński portal +972 Magazine rozmawiał z sześcioma oficerami izraelskiego wywiadu, którzy służyli w armii podczas trwającej wojny w Strefie Gazy i poznali sposób, w jaki wojsko używa AI do identyfikacji celów. System Lawenda został zaprojektowany w celu zidentyfikowania wszystkich domniemanych bojowników zbrojnego skrzydła Hamasu i Islamskiego Dżihadu - w tym niższego szczebla - jako celów nalotów. W pierwszych tygodniach wojny w Strefie Gazy armia niemal wyłącznie opierała się na tym systemie, który zidentyfikował co najmniej 37 tys. Palestyńczyków jako domniemanych bojowników. Stali się oni - i ich domy - potencjalnymi celami bombardowań lotniczych – relacjonuje portal.20 sekund na potwierdzenie ostrzału Jedno ze źródeł powiedziało dziennikarzom, że decyzje AI były często bez zastanowienia zatwierdzane przez wojskowych. Zwykle potrzebowali oni zaledwie 20 sekund na zatwierdzenie ostrzału - tyle, by upewnić się, że człowiek, który ma być zabity jest płci męskiej. Lawenda - jak się uznaje - ma margines błędu wynoszący około 10 procent. Wiadomo też, że system niekiedy identyfikuje jako cele ludzi, którzy są z Hamasem powiązani tylko luźno, albo wcale. Portal podkreśla, że armia z reguły zabijała podejrzanych wtedy, gdy byli w domu - a więc, z całą rodziną - uznając, że prywatne domy hamasowców są łatwiejszym celem bombardowań. „W rezultacie, jak potwierdzają źródła, tysiące Palestyńczyków, w większości - kobiet i dzieci bądź ludzi nieuczestniczących w walkach - zostało zabitych w izraelskich ostrzałach lotniczych w wyniku decyzji programów AI, zwłaszcza w pierwszych tygodniach wojny” – relacjonuje +972 Magazine. Źródła portalu utrzymują, że gdy chodziło o młodszych rangą hamasowców armia wybierała do uderzeń mniej precyzyjne bomby, bowiem nie chciała „marnować kosztownych bomb (inteligentnych, precyzyjnych pocisków-PAP) na ludzi mało ważnych”. Według dwóch źródeł „armia zadecydowała w pierwszych tygodniach wojny, że dopuszczalne było w przypadku niższych rangą członków Hamasu zabicie od 15 do 20 cywilów”; kilkakrotnie też zgodziła się na zabicie ponad stu cywilów w atakach na pojedynczych dowódców Hamasu w randze dowódców batalionu bądź brygady.Nowy wymiar wojny „Użycie przez Izrael w wojnie z Hamasem potężnych systemów AI jest wkroczeniem na nieznane terytorium zaawansowanej wojny, co budzi masę pytań natury prawnej i moralnej oraz zmienia relację między personelem wojskowym i maszynami” – ocenił „Guardian”. Dziennik przypomniał, że w czasie poprzednich operacji zbrojnych wyznaczanie celów było bardziej pracochłonnym procesem, w którym uczestniczył też doradca prawny. Jednak po atakach Hamasu z 7 października 2023 r. na Izrael „model zatwierdzania ostrzałów przeciwko celom ludzkim gwałtownie przyspieszył” – ocenia dziennik. Armia izraelska zaprzecza Armia izraelska w oficjalnym komunikacie cytowanym przez „Guardiana” oświadczyła, że niektóre doniesienia o użyciu systemu Lawenda są „bezpodstawne”. Inne zaś „demonstrują błędne zrozumienie dyrektyw armii i prawa międzynarodowego”. Armia zapewniła, że stosuje „rozmaite typy narzędzi i metod” do identyfikowania celów. „Wbrew twierdzeniom (zawartym w artykułach-PAP) siły obronne Izraela nie używają systemu sztucznej inteligencji, który identyfikuje terrorystów bądź próbuje przewidzieć, czy dana osoba jest terrorystą. Systemy informatyczne są jedynie narzędziami używanymi przez analityków w procesie identyfikacji celów” – oświadczyły siły zbrojne. Zapewniły też, że działają zgodnie z prawem międzynarodowym, czego - według nich - nie robi Hamas, „systematycznie wykorzystujący ludność jako żywe tarcze” i prowadzący walki z terenu obiektów cywilnych: „domów mieszkalnych, szpitali, meczetów, szkół i obiektów ONZ”.