Armata israeliană a marcat zeci de mii de locuitori din Gaza ca suspecți pentru asasinare, folosind un sistem de țintire bazat pe inteligență artificială, cu puțină supraveghere umană și o politică permisivă privind victimele, dezvăluie +972 și Local Call.
În 2021, o carte intitulată „Echipa Om-Mașină: Cum să creezi sinergie între inteligența umană și cea artificială care va revoluționa lumea noastră” a fost publicată în limba engleză sub pseudonimul „General de brigadă Y.S.” În ea, autorul — un bărbat despre care am confirmat că este actualul comandant al unității israeliene de informații de elită 8200 — argumentează în favoarea conceperii unei mașini speciale care să poată procesa rapid cantități masive de date pentru a genera mii de potențiale „ținte” pentru atacuri militare în mijlocul unui război.
Se pare că o astfel de mașină chiar există. Armata israeliană a dezvoltat un program bazat pe inteligență artificială cunoscut sub numele de „Lavender”. Potrivit a șase ofițeri israelieni de informații — care au servit în armată în timpul actualului război din Fâșia Gaza și au fost implicați direct în utilizarea inteligenței artificiale pentru generarea de ținte pentru asasinat — Lavender a jucat un rol central în bombardamentele asupra palestinienilor. De fapt, potrivit surselor, influența sistemului asupra operațiunilor militare a fost atât de mare încât ieșirile mașinii de AI au fost tratate „ca și cum ar fi fost o decizie umană.”
În mod oficial, sistemul Lavender este conceput pentru a marca toți presupusii combatanți din aripile militare ale Hamas și Jihadului Islamic Palestinian (PIJ), inclusiv pe cei de rang inferior, ca posibile ținte pentru bombardamente. În primele săptămâni ale războiului, armata s-a bazat aproape în totalitate pe Lavender, care a identificat până la 37.000 de palestinieni drept presupuşi militanţi — și locuințele acestora — ca posibile ținte.
În primele etape ale războiului, armata a acordat aprobări generale ofițerilor pentru a adopta listele de execuții generate de Lavender, fără obligația de a verifica temeinic motivele pentru care mașina făcuse acele alegeri. Aceasta în ciuda faptului că se știa că sistemul comite ceea ce sunt considerate „erori” în aproximativ 10% din cazuri.
Mai mult, armata israeliană a atacat sistematic persoanele țintite în timp ce se aflau în locuințele lor — de obicei noaptea, când întreaga familie era prezentă — și nu în timpul desfășurării unor activități militare. Sisteme automatizate suplimentare, inclusiv unul numit „Unde e tata?” au fost utilizate special pentru a urmări persoanele țintite și a executa bombardamente în momentul în care aceștia intrau în locuințele familiale.
Rezultatul, după cum au mărturisit sursele, a fost că mii de palestinieni — majoritatea femei și copii sau persoane care nu erau implicate în lupte — au fost uciși în urma atacurilor aeriene israeliene, în special în primele săptămâni ale războiului.
„Nu eram interesați să ucidem doar când [membrii Hamas] se aflau într-o clădire militară sau participau la o activitate militară,” a declarat A., un ofițer de informații, pentru +972 și Local Call. „Dimpotrivă, armata israeliană i-a bombardat în case. Este mult mai ușor să bombardezi casa unei familii. Sistemul este conceput să-i caute în astfel de situații.”
Mașina Lavender se alătură unui alt sistem de inteligență artificială, „The Gospel”. O diferență fundamentală între cele două sisteme constă în definiția țintei: în timp ce The Gospel marchează clădiri și structuri din care armata susține că acționează militanții, Lavender marchează persoane.
De asemenea, potrivit surselor, în cazul presupuşilor militanți de rang inferior marcați de Lavender, armata a preferat să folosească doar rachete neghidate, cunoscute ca „bombe oarbe” (spre deosebire de cele „inteligente”, cu ghidaj de precizie), care pot distruge clădiri întregi și provoca pierderi umane semnificative. „Nu vrei să irosești bombe scumpe pe oameni neimportanți — e foarte costisitor pentru țară și există o lipsă [a acestor bombe],” a spus C., unul dintre ofițerii de informații.
Într-o măsură fără precedent, potrivit a două dintre surse, armata a decis, în primele săptămâni ale războiului, că pentru fiecare presupus militant de rang inferior marcat de Lavender era permisă uciderea a până la 15 sau 20 de civili. Sursele au adăugat că, în cazul în care ținta era un oficial Hamas de rang înalt, cu grad de comandant de batalion sau brigadă, armata a autorizat în mai multe rânduri uciderea a peste 100 de civili pentru eliminarea unui singur comandant.
Investigația de mai jos este organizată în funcție de cele șase etape cronologice ale procesului extrem de automatizat de generare a țintelor de către armata israeliană în primele săptămâni ale războiului din Gaza.
ETAPA 1: GENERAREA ȚINTELOR
În armata israeliană, termenul „țintă umană” se referea în trecut la un operativ militar de rang înalt care, conform regulilor Departamentului de Drept Internațional al armatei, putea fi ucis în locuința sa privată chiar dacă în jurul lui se aflau civili.
Însă după 7 octombrie — când militanții conduși de Hamas au lansat un atac mortal asupra comunităților israeliene din sud, ucigând aproximativ 1.200 de persoane și răpind 240 — armata, spun sursele, a adoptat o abordare radical diferită. În cadrul „Operațiunii Săbiile de Fier”, armata a decis să desemneze toți membrii aripii militare a Hamas ca ținte umane, indiferent de rangul sau importanța lor militară. Iar asta a schimbat totul.
Această nouă politică a generat și o problemă tehnică pentru serviciile israeliene de informații. În războaiele anterioare, pentru a autoriza asasinarea unei singure ținte umane, un ofițer trebuia să urmeze un proces complex și îndelungat de „incriminare”: să verifice din surse multiple că persoana era cu adevărat un membru de rang înalt al aripii militare a Hamas, să afle unde locuia, datele sale de contact și, în cele din urmă, să știe în timp real când se afla acasă. Cât timp lista de ținte cuprindea doar câteva zeci de comandanți de rang înalt, personalul de informații putea gestiona individual sarcina de a-i incrimina și localiza.
Totuși, odată ce lista a fost extinsă pentru a include zeci de mii de combatanți de rang inferior, armata israeliană a ajuns la concluzia că trebuie să se bazeze pe software automatizat și pe inteligență artificială. Potrivit a patru dintre sursele care au vorbit cu +972 și Local Call, Lavender — dezvoltat pentru a crea ținte umane în actualul război — a marcat aproximativ 37.000 de palestinieni ca presupuşi „militanți Hamas”, majoritatea de rang inferior, pentru asasinare (Purtătorul de cuvânt al IDF a negat existența unei astfel de liste de execuție).
Sursele au declarat că aprobarea de a adopta automat listele de execuție generate de Lavender — care anterior fusese folosit doar ca instrument auxiliar — a fost acordată la aproximativ două săptămâni după începutul războiului, după ce personalul de informații a verificat „manual” acuratețea unui eșantion aleatoriu de câteva sute de ținte selectate de sistemul AI. Când acea verificare a indicat că Lavender avea o precizie de 90% în identificarea apartenenței unui individ la Hamas, armata a autorizat utilizarea pe scară largă a sistemului.
„A fost foarte surprinzător pentru mine faptul că ni s-a cerut să bombardăm o casă doar pentru a ucide un soldat de teren, a cărui importanță în luptă era atât de scăzută,” a spus o sursă despre utilizarea AI pentru marcarea presupuselor cadre inferioare. „Eu am poreclit acele ținte ‘ținte de gunoi’. Totuși, mi s-au părut mai etice decât țintele bombardate doar pentru ‘descurajare’ — blocuri turn evacuate și doborâte doar pentru a produce distrugere.”
„Cu cât mai multe informații și mai variate, cu atât mai bine”
Software-ul Lavender analizează informațiile colectate despre majoritatea celor 2,3 milioane de locuitori din Fâșia Gaza printr-un sistem de supraveghere în masă, apoi evaluează și clasifică probabilitatea ca fiecare persoană în parte să fie activă în aripa militară a Hamas sau a Jihadului Islamic Palestinian (PIJ). Potrivit surselor, mașina oferă aproape fiecărei persoane din Gaza un scor de la 1 la 100, exprimând cât de probabil este ca aceasta să fie un militant.
Lavender învață să identifice caracteristicile operative cunoscuți din Hamas și PIJ, ale căror informații au fost introduse în sistem ca date de antrenament, și apoi caută aceleași caracteristici în rândul populației generale, au explicat sursele. O persoană care prezintă mai multe astfel de trăsături incriminatoare va primi un scor ridicat și astfel devine automat o posibilă țintă pentru asasinat.
În cartea The Human-Machine Team, menționată la începutul articolului, actualul comandant al Unității 8200 pledează pentru un astfel de sistem, fără a menționa numele Lavender.
„Cu cât mai multe informații și cu cât mai variate, cu atât mai bine,” scrie comandantul. „Informații vizuale, date din rețelele mobile, conexiuni pe rețelele sociale, informații de pe câmpul de luptă, contacte telefonice, fotografii.” Deși inițial oamenii aleg aceste trăsături, comandantul susține că, în timp, mașina va învăța să le identifice singură. Acest lucru, spune el, va permite armatei să creeze „zeci de mii de ținte”, iar decizia de a le ataca sau nu va rămâne, formal, una umană.
„Clasificăm rezultatele și stabilim pragul [de la care o țintă poate fi atacată],” a spus „Col. Yoav” în cadrul prelegerii, subliniind că „în cele din urmă, deciziile sunt luate de oameni din carne și oase. În domeniul apărării, din punct de vedere etic, punem mare accent pe asta. Aceste instrumente sunt menite să-i ajute [pe ofițerii de informații] să își depășească limitele.”
În practică, însă, surse care au utilizat Lavender în ultimele luni afirmă că voința și discernământul uman au fost înlocuite de o producție în masă de ținte și de o letalitate ridicată.
„Nu exista o politică de «eroare zero»”
B., un ofițer superior care a folosit Lavender, a confirmat că în actualul conflict, ofițerii nu aveau obligația de a revizui independent evaluările făcute de sistemul AI, pentru a economisi timp și a permite generarea în masă a țintelor umane, fără blocaje.
„Totul era statistic, totul era ordonat — foarte sec,” a spus B. El a remarcat că această lipsă de supraveghere a fost permisă în ciuda verificărilor interne care arătau că estimările Lavender erau considerate corecte în doar 90% din cazuri.
De exemplu, sursele au explicat că sistemul Lavender marca uneori greșit persoane care aveau modele de comunicare similare cu cele ale unor membri cunoscuți din Hamas sau PIJ — inclusiv polițiști și lucrători ai apărării civile, rude ale militanților, rezidenți care aveau același nume sau poreclă cu un operativ, sau palestinieni care foloseau un dispozitiv ce aparținuse cândva unui militant Hamas.
Probleme similare există și în capacitatea acestor mașini de identificare a țintelor de a evalua corect telefonul folosit de o persoană marcată pentru asasinat.
„În timpul războiului, palestinienii își schimbă telefoanele în mod constant,” a spus o sursă. „Oamenii pierd legătura cu familiile, își dau telefonul unui prieten sau unei soții, poate îl pierd. Nu ai cum să te bazezi 100% pe mecanismul automat care stabilește ce [număr de] telefon aparține cui.”
Potrivit surselor, armata știa că supervizarea umană minimă existentă nu avea să descopere aceste erori. „Nu exista o politică de ‘eroare zero’. Greșelile erau tratate statistic,” a spus o sursă care a utilizat Lavender. „Din cauza amplorii și magnitudinii, protocolul era că, chiar dacă nu știi sigur că mașina are dreptate, știi că, statistic, e acceptabil. Așa că mergi mai departe.”
„În război, nu ai timp să incriminezi fiecare țintă. Așa că ești dispus să accepți marja de eroare oferită de inteligența artificială”
„Și-a dovedit eficiența,” a spus B., sursa superioară. „E ceva în abordarea statistică care te fixează într-o anumită normă și standard. A fost o cantitate ilogică de [bombardamente] în această operațiune. Este fără precedent, din câte îmi amintesc. Și am mai multă încredere într-un mecanism statistic decât într-un soldat care și-a pierdut un prieten acum două zile. Toți de acolo, inclusiv eu, am pierdut oameni pe 7 octombrie. Mașina a acționat la rece. Și asta a făcut lucrurile mai ușoare.”
O altă sursă din serviciile de informații, care a apărat utilizarea listelor de execuție generate de Lavender cu suspecți palestinieni, a susținut că merită să investești timp din partea unui ofițer de informații doar pentru verificarea unei ținte dacă este vorba despre un comandant de rang înalt din Hamas. „Dar când e vorba de un militant de rang inferior, nu vrei să consumi resurse umane și timp pentru asta,” a spus el. „În război, nu ai timp să incriminezi fiecare țintă. Așa că ești dispus să accepți marja de eroare oferită de inteligența artificială, să-ți asumi riscul de pierderi colaterale și moartea civililor, și riscul de a ataca din greșeală — și să trăiești cu asta.”
O sursă care a lucrat cu echipa militară de știința datelor care a antrenat sistemul Lavender a declarat că datele colectate de la angajați ai Ministerului de Securitate Internă condus de Hamas — pe care el nu îi consideră militanți — au fost de asemenea introduse în sistem. „M-a deranjat faptul că, atunci când Lavender a fost antrenat, s-a folosit termenul «operativ Hamas» în mod lax și au fost incluși în setul de date persoane care erau lucrători în apărarea civilă,” a spus el.
Sursa a adăugat că, chiar dacă cineva ar considera că aceste persoane merită să fie ucise, antrenarea sistemului pe baza profilurilor lor de comunicare făcea ca Lavender să aibă o probabilitate mai mare de a selecta civili din greșeală atunci când algoritmii erau aplicați asupra populației generale.
„Verificam doar că ținta era bărbat”
Armata israeliană respinge categoric aceste afirmații. Purtătorul de cuvânt al IDF a negat utilizarea inteligenței artificiale pentru incriminarea țintelor, susținând că este vorba doar despre „instrumente auxiliare care asistă ofițerii în procesul de incriminare”.
Totuși, sursele au declarat că singurul protocol de supraveghere umană aplicat înainte de bombardarea caselor presupuselor cadre „inferioare” marcate de Lavender era realizarea unei singure verificări: confirmarea faptului că ținta selectată de AI este bărbat și nu femeie.
„O ființă umană trebuia [să verifice ținta] doar câteva secunde,” a spus B., explicând că aceasta devenise rutina după ce s-a observat că sistemul Lavender „găsea corect” în majoritatea cazurilor.
În practică, sursele au spus că acest lucru a însemnat că, în cazul bărbaților civili marcați din greșeală de Lavender, nu exista niciun mecanism de supraveghere care să detecteze eroarea. Potrivit lui B., o greșeală frecventă apărea „dacă [ținta Hamas] dădea [telefonul] fiului său, fratelui mai mare sau unui bărbat oarecare. Acea persoană urma să fie bombardată în casa sa, împreună cu familia. Asta s-a întâmplat frecvent. Cele mai multe dintre greșelile produse de Lavender au fost de acest tip,” a spus B.
ETAPA 2: LEGAREA ȚINTELOR DE LOCUINȚELE FAMILIALE
Următoarea etapă în procedura de asasinat a armatei israeliene este identificarea locului unde trebuie lovite țintele generate de Lavender.
În contrast cu declarațiile oficiale ale armatei israeliene, sursele au explicat că un motiv major al numărului fără precedent de morți provocate de bombardamentele actuale este faptul că armata a atacat sistematic țintele în locuințele lor private, împreună cu familiile — parțial pentru că, din punct de vedere al informațiilor, era mai ușor să marchezi automat casele de familie.
Cum este conceput sistemul israelian de supraveghere în masă
Mai mult, mai multe surse au subliniat că, spre deosebire de cazurile în care militanții Hamas se angajau în activități militare din zone civile, în cazul atacurilor sistematice de asasinat, armata a ales în mod deliberat să bombardeze suspecți atunci când aceștia se aflau în casele lor civile, din care nu se desfășura nicio activitate militară.
Această alegere, au spus ei, reflectă modul în care este conceput sistemul israelian de supraveghere în masă în Gaza.
Sursele au declarat pentru +972 și Local Call că, întrucât fiecare persoană din Gaza avea o locuință privată cu care putea fi asociată, sistemele de supraveghere ale armatei puteau „lega” cu ușurință și în mod automat indivizii de casele lor de familie. Pentru a identifica momentul în care operativii intră în locuințele lor în timp real, au fost dezvoltate diverse programe software automate suplimentare. Aceste programe urmăresc simultan mii de persoane, detectează când se află acasă și trimit o alertă automată către ofițerul de țintire, care marchează apoi casa pentru bombardament. Unul dintre aceste programe de urmărire — dezvăluit aici pentru prima dată — se numește Where’s Daddy? („Unde e tata?”).
„Pui sute [de ținte] în sistem și aștepți să vezi pe cine poți omorî,” a spus o sursă familiarizată cu sistemul. „Se numește vânătoare extinsă: copiezi și lipești din listele pe care le produce sistemul de țintire.”
Sursele au spus că, în primele două săptămâni de război, „câteva mii” de ținte au fost introduse inițial în programe de localizare precum Where’s Daddy?. Printre acestea se aflau toți membrii unității de elită Nukhba a Hamas, toți operativii Hamas specializați în rachete antitanc, precum și orice persoană care a pătruns în Israel pe 7 octombrie. Dar curând, lista de execuție a fost extinsă drastic.
Lavender și sistemele precum Where’s Daddy? au fost astfel combinate cu un efect mortal, ucigând familii întregi, au declarat sursele. Prin adăugarea unui nume din listele generate de Lavender în sistemul de urmărire a locuinței Where’s Daddy?, persoana marcată intra sub supraveghere continuă și putea fi atacată imediat ce pășea în casă, prăbușind locuința peste toți cei din interior, a explicat A.
ETAPA 3: ALEGEREA ARMEI
Odată ce Lavender a marcat o țintă pentru asasinare, personalul armatei a verificat că e bărbat, iar software-ul de urmărire a localizat ținta în casa sa, următoarea etapă este alegerea muniției cu care va fi bombardat.
În decembrie 2023, CNN a relatat că, potrivit estimărilor serviciilor de informații americane, aproximativ 45% dintre munițiile folosite de forțele aeriene israeliene în Gaza erau „bombe oarbe” — bombe neghidate, cunoscute pentru producerea de daune colaterale semnificativ mai mari decât bombele ghidate. În replică la raportul CNN, un purtător de cuvânt al armatei israeliene a declarat în articol: „Ca armată angajată să respecte dreptul internațional și un cod moral de conduită, alocăm resurse considerabile pentru a minimiza pagubele provocate civililor pe care Hamas i-a forțat să joace rolul de scuturi umane. Războiul nostru este împotriva Hamas, nu împotriva locuitorilor din Gaza.”
ETAPA 4: AUTORIZAREA VICTIMELOR CIVILE
O sursă a spus că, atunci când se atacau combatanți de rang inferior, inclusiv cei marcați de sisteme AI precum Lavender, numărul de civili care puteau fi uciși împreună cu fiecare țintă era stabilit la începutul războiului la până la 20. O altă sursă a indicat un prag de până la 15.
Potrivit lui A., care a fost ofițer într-o cameră de operațiuni de țintire în actualul conflict, departamentul de drept internațional al armatei nu a mai oferit niciodată o „aprobare generalizată” pentru un grad atât de ridicat al pagubelor colaterale. „Nu e vorba doar că ai voie să ucizi orice persoană care e soldat Hamas, ceea ce e clar permis și legitim conform dreptului internațional,” a spus A. „Ci ți se spune direct: «Ai voie să-i ucizi împreună cu mulți civili.»”
„Orice persoană care a purtat uniforma Hamas în ultimul an sau doi putea fi bombardată cu 20 de [civili uciși ca] daune colaterale, chiar și fără o permisiune specială,” a continuat A. „În practică, principiul proporționalității nu a existat.”
Gradul de pagubă colaterală, prestabilit și fix, a contribuit la accelerarea generării în masă a țintelor cu ajutorul sistemului Lavender, au spus sursele, deoarece economisea timp. B. a declarat că, în prima săptămână de război, numărul de civili care puteau fi uciși împreună cu fiecare presupus militant de rang inferior marcat de AI era 15, dar că acest număr „a fluctuat” în timp.
„La început, am atacat aproape fără să luăm în considerare pagubele colaterale,” a spus B. despre prima săptămână după 7 octombrie. „În practică, nu numărai cu adevărat oamenii [din fiecare casă bombardată], pentru că nici nu puteai să știi dacă sunt acasă sau nu. După o săptămână, au început restricțiile privind pagubele colaterale. Numărul a scăzut [de la 15] la cinci, ceea ce ne-a îngreunat mult atacurile, pentru că, dacă toată familia era acasă, nu puteam bombarda. Apoi, au mărit din nou numărul.”
„Știam că vom ucide peste 100 de civili”
Totuși, atacurile aeriene împotriva comandanților Hamas de rang înalt continuă, iar sursele au spus că, în cazul acestor lovituri, armata autorizează uciderea a „sute” de civili pentru fiecare țintă — o politică oficială fără precedent în istoria Israelului sau chiar în operațiunile recente ale armatei americane.
„La bombardamentul comandantului Batalionului Shuja’iya, știam că vom ucide peste 100 de civili,” și-a amintit B. despre lovitura aeriană din 2 decembrie, pe care purtătorul de cuvânt al IDF a declarat că a avut ca scop asasinarea lui Wisam Farhat. „Pentru mine, psihologic, a fost ceva ieșit din comun. Peste 100 de civili — trece de o linie roșie.”
Amjad Al-Sheikh, un tânăr palestinian din Gaza, a spus că mulți dintre membrii familiei sale au fost uciși în acel bombardament. Rezident al cartierului Shuja’iya, la est de orașul Gaza, se afla într-un supermarket local în acea zi când a auzit cinci explozii care au spulberat geamurile.
„Am fugit spre casa familiei mele, dar nu mai existau clădiri acolo,” a povestit Al-Sheikh. „Strada era plină de țipete și fum. Întregi blocuri rezidențiale s-au transformat în munți de dărâmături și cratere adânci. Oamenii au început să caute în beton cu mâinile — și eu la fel — în căutarea vreunui semn al casei familiei mele.”
Soția lui Al-Sheikh și fiica lor bebeluș au supraviețuit — protejate de un dulap căzut peste ele — însă el a găsit 11 alți membri ai familiei sale, printre care surori, frați și copiii lor mici, morți sub dărâmături. Potrivit organizației pentru drepturile omului B’Tselem, bombardamentul din acea zi a distrus zeci de clădiri, a ucis zeci de oameni și a îngropat sute sub ruinele propriilor case.
„Familii întregi au fost ucise”
O altă sursă din serviciile de informații a declarat pentru +972 și Local Call că armata a distrus o clădire cu mai multe etaje în Rafah, la mijlocul lunii decembrie, ucigând „zeci de civili”, în încercarea de a-l asasina pe Mohammed Shabaneh, comandantul Brigăzii Hamas din Rafah (nu este clar dacă acesta a fost sau nu ucis în atac). Adesea, a spus sursa, comandanții de rang înalt se ascund în tuneluri care trec pe sub clădiri civile, iar alegerea de a-i elimina prin lovituri aeriene implică inevitabil moartea civililor.
„A existat o politică complet permisivă în privința victimelor [atacurilor aeriene] — atât de permisivă încât, în opinia mea, a avut și o componentă de răzbunare,” a afirmat D., o sursă din serviciile de informații. „În centrul acestei politici au fost asasinatele comandanților [Hamas și PIJ] de rang înalt, pentru care se accepta uciderea a sute de civili. Aveam un calcul: câți pentru un comandant de brigadă, câți pentru un comandant de batalion, și tot așa.”
Un asemenea nivel de „pagube colaterale” este excepțional nu doar în comparație cu ceea ce armata israeliană considera anterior acceptabil, ci și în raport cu războaiele purtate de Statele Unite în Irak, Siria și Afganistan.
„Ni s-a spus: «Bombardați tot ce puteți»”
Toate sursele intervievate pentru această investigație au declarat că masacrele comise de Hamas pe 7 octombrie și răpirea de ostatici au influențat profund politica de deschidere a focului a armatei și gradul de toleranță pentru victimele colaterale. „La început, atmosfera era dureroasă și răzbunătoare,” a spus B., care a fost mobilizat imediat după 7 octombrie și a activat într-o cameră de operațiuni de țintire. „Regulile erau foarte lejere. Au distrus patru clădiri știind că ținta era într-una dintre ele. A fost nebunie.”
„Era o disonanță: pe de o parte, oamenii de aici erau frustrați că nu atacam suficient,” a continuat B. „Pe de altă parte, vedeai la finalul zilei că mai muriseră alți o mie de locuitori din Gaza, majoritatea civili.”
„Era isterie în rândul profesioniștilor,” a spus D., care a fost și el mobilizat imediat după 7 octombrie. „Nu aveau absolut nicio idee cum să reacționeze. Singurul lucru pe care îl știau era să înceapă să bombardeze ca nebunii, în încercarea de a distruge capacitățile Hamas.”
- a subliniat că nu li s-a spus explicit că obiectivul armatei era „răzbunarea”, dar a explicat că „în momentul în care orice țintă legată de Hamas devine legitimă, iar aproape orice pagubă colaterală este aprobată, îți este clar că vor muri mii de oameni. Chiar dacă, oficial, fiecare țintă are o legătură cu Hamas, într-o politică atât de permisivă, conceptul își pierde orice sens.”
- a folosit și el cuvântul „răzbunare” pentru a descrie atmosfera din armată după 7 octombrie. „Nimeni nu se gândea ce va urma după, când războiul se va încheia, cum se va putea trăi în Gaza și ce se va face cu ea,” a spus A. „Ni s-a spus: acum trebuie să distrugem Hamas, indiferent de cost. Orice poți bombarda, bombardezi.”
ETAPA 5: CALCULAREA PAGUBELOR COLATERALE
Potrivit surselor din informații, calculul armatei israeliene privind numărul de civili așteptați să fie uciși într-o locuință, împreună cu o țintă, a fost realizat cu ajutorul unor instrumente automate și inexacte. În conflictele anterioare, personalul de informații petrecea mult timp verificând câte persoane se aflau într-o casă care urma să fie bombardată, iar numărul de civili ce riscau să fie uciși era notat într-un „dosar al țintei”. După 7 octombrie, însă, această verificare amănunțită a fost în mare parte abandonată în favoarea automatizării.
De exemplu, dacă armata estima că jumătate dintre locuitorii unui cartier au plecat, programul considera că o casă care de obicei găzduia 10 persoane conținea doar cinci. Pentru a economisi timp, au spus sursele, armata nu mai supraveghea locuințele pentru a verifica câți oameni se aflau efectiv acolo, așa cum făcuse în operațiunile anterioare, și nu verifica dacă estimarea programului era corectă.
„Acest model nu avea nicio legătură cu realitatea,” a declarat o sursă. „Nu exista vreo corelație între cei care se aflau în casă în acel moment, în timpul războiului, și cei care figurau ca locatari înainte de război. [Într-o situație] am bombardat o casă fără să știm că înăuntru erau mai multe familii, ascunse împreună.”
ETAPA 6: BOMBARDAMENTUL UNEI LOCUINȚE FAMILIALE
Sursele care au vorbit cu +972 și Local Call au explicat că, uneori, exista un decalaj semnificativ între momentul în care sistemele de urmărire precum Where’s Daddy? semnalau unui ofițer că o țintă intrase în casă și momentul în care bombardamentul avea efect — ceea ce ducea la uciderea unor familii întregi chiar și atunci când ținta armatei nu se mai afla acolo. „Mi s-a întâmplat de multe ori să bombardăm o casă, dar persoana [ținta] să nu fie nici măcar acasă,” a spus o sursă.
O altă sursă a descris un incident similar care l-a afectat personal și l-a determinat să accepte să fie intervievat pentru această investigație. „Am înțeles că ținta era acasă la ora 20:00. Până la urmă, forțele aeriene au bombardat casa la ora 3 dimineața. Apoi am aflat că [în acel interval] reușise să se mute într-o altă casă cu familia. În clădirea pe care am bombardat-o erau alte două familii cu copii.”
În războaiele anterioare din Gaza, după asasinarea unor ținte umane, serviciile de informații israeliene efectuau proceduri de evaluare a pagubelor (BDA – bomb damage assessment) — o verificare standard după lovitură pentru a vedea dacă comandantul vizat fusese ucis și câți civili fuseseră uciși odată cu el.
În actualul război, însă — cel puțin în cazul militanților de rang inferior marcați cu ajutorul AI — sursele spun că această procedură a fost eliminată pentru a economisi timp.
„Nu știi exact câți ai ucis și pe cine ai ucis,” a declarat o sursă din serviciile de informații pentru Local Call, într-o investigație anterioară publicată în ianuarie. „Doar când e vorba de comandanți de rang înalt din Hamas se urmează procedura BDA. În restul cazurilor, nu contează. Primești un raport de la forțele aeriene despre dacă clădirea a fost distrusă și atât. N-ai nicio idee despre câte pagube colaterale au fost; treci imediat la următoarea țintă. Accentul era pus pe generarea cât mai multor ținte, cât mai repede posibil.”
Articolul original poate fi citit AICI.