Gaza: Digitální nástroje izraelské armády představují riziko zranění civilistů

12. 9. 2024

čas čtení 8 minut

Nové technologie vyvolávají vážné obavy ohledně válečného práva, soukromí a osobních údajů


Používání sledovacích technologií, umělé inteligence a dalších digitálních nástrojů izraelskou armádou, které jí pomáhají určovat cíle útoků v Gaze, může zvyšovat riziko zraněn a zabití civilního obyvatelstva, uvedla dnes organizace Human Rights Watch ve svém dokumentu, v němž zveřejnila otázky a odpovědi týkající se těchto nástrojů. Tyto digitální nástroje vyvolávají vážné etické, právní a humanitární obavy.

Izraelská armáda používá v bojích v Gaze čtyři digitální nástroje k odhadu počtu civilistů v oblasti před útokem, k upozornění vojáků, kdy mají zaútočit, a k určení, zda je osoba civilista nebo bojovník, a také zda je stavba civilní nebo vojenská. Organizace Human Rights Watch zjistila, že tyto digitální nástroje se zřejmě opírají o chybné údaje a nepřesné aproximace, které slouží k informování o vojenských akcích způsobem, jenž by mohl být v rozporu se závazky Izraele podle mezinárodního humanitárního práva, zejména s pravidly rozlišování a předběžné opatrnosti.

 
„Izraelská armáda používá neúplné údaje, chybné výpočty a nástroje, které neodpovídají svému účelu, aby pomohla při rozhodování o životě a smrti v Gaze, což by mohlo zvyšovat škody způsobené civilnímu obyvatelstvu,“ uvedl Zach Campbell, vedoucí výzkumný pracovník pro dohled v organizaci Human Rights Watch. „Problémy v konstrukci a používání těchto nástrojů znamenají, že namísto minimalizace civilních škod může jejich používání vést k nezákonnému zabíjení a zraňování civilistů.“

Tyto nástroje zahrnují průběžné a systematické sledování palestinských obyvatel Gazy, včetně údajů shromážděných před současnými bojovými akcemi, a to způsobem, který je neslučitelný s mezinárodním právem v oblasti lidských práv. Tyto nástroje využívají osobní údaje Palestinců k předvídání hrozeb, identifikaci cílů a strojovému učení.

Při posuzování těchto čtyř nástrojů, které izraelská armáda používá při bojích v Gaze od 7. října 2023, vycházela organizace Human Rights Watch z veřejných prohlášení izraelských představitelů, dosud nezveřejněných materiálů zveřejněných izraelskou armádou, zpráv z médií a rozhovorů s odborníky a novináři. Tyto informace jsou sice neúplné, ale poskytují důležité podrobnosti o tom, jak tyto nástroje fungují, jak byly vytvořeny, jaké údaje používají a jak by mohly podpořit vojenské rozhodování.

Patří mezi ně nástroj založený na sledování mobilních telefonů, který monitoruje evakuaci Palestinců z částí severní Gazy, odkud izraelská armáda 13. října nařídila odejít všem obyvatelům; nástroj, který vytváří seznamy budov nebo jiných stavebních cílů, na něž má být zaútočeno, nazvaný „Evangelium“; nástroj, který přiděluje lidem v Gaze hodnocení související s jejich podezřením na příslušnost k palestinským ozbrojeným skupinám, nazvaný „Lavender“, pro účely jejich označení za vojenské cíle; a nástroj nazvaný „Kde je táta?“, který údajně určuje, kdy se cíl nachází na určitém místě - podle zpráv médií často v domnělém rodinném domě -, aby tam mohl být napaden.

Tyto nástroje jsou omezeny problémy běžnými pro jiné typy technologií, ale ve vojenském kontextu mohou mít pro civilisty smrtelné následky. Dva z těchto nástrojů, nástroj pro sledování evakuace a nástroj Where's Daddy?, se zřejmě používají k informování o určování cílů, pohybu vojsk a dalších vojenských akcích pomocí údajů o poloze mobilních telefonů. Ačkoli mají tyto nástroje mnoho praktických využití v každodenním životě, nejsou dostatečně přesné pro informování o vojenských rozhodnutích, zejména vzhledem k masivnímu poškození komunikační infrastruktury v Gaze.

Zdá se, že dva z digitálních nástrojů, Evangelium a Lavender, se spoléhají na procesy strojového učení, aby informovaly o rozhodnutích o určení cílů pomocí kritérií vytvořených algoritmem, který je s největší pravděpodobností neobjektivní a neúplný, a v procesu, který není možné technicky zkontrolovat. Výstupy algoritmů často odrážejí předsudky jejich programátorů a jejich společnosti. A přestože se mohou jevit jako neutrální, digitální nástroje často požívají nadměrné důvěry ze strany lidských operátorů, přestože jsou jen tak přesné, jak přesná jsou data, na jejichž základě byly vytvořeny, a ta jsou ve vojenském kontextu často neúplná a ne zcela reprezentativní pro kontext, v němž nástroj pracuje. Spoléhání se na tyto algoritmy představuje riziko porušení závazků mezinárodního humanitárního práva týkajících se ochrany civilního obyvatelstva.

Lavender a Gospel se spoléhají na strojové učení, které rozlišuje mezi vojenskými cíli a civilisty a civilními objekty. Strojové učení je typ umělé inteligence, který využívá počítačové systémy, jež mohou vyvozovat závěry z dat a rozpoznávat vzorce bez výslovných pokynů. Jeho použití k přiřazení podezření nebo informování o rozhodnutích o zaměření může zvýšit pravděpodobnost poškození civilního obyvatelstva.

Nebylo možné zdokumentovat, kdy a kde izraelská armáda tyto digitální nástroje používá, ani do jaké míry je používá ve spojení s jinými metodami sběru informací a zpravodajských informací.

Izraelská armáda by měla zajistit, aby veškeré využívání technologií při jejích operacích bylo v souladu s mezinárodním humanitárním právem. Žádná rozhodnutí o cílení by neměla být přijímána pouze na základě doporučení nástroje strojového učení. Pokud izraelské síly jednají na základě jakýchkoli doporučení nebo hodnocení těchto nástrojů bez dostatečné kontroly nebo dodatečných informací - jak bylo hlášeno -, což má za následek útoky způsobující škody civilistům, porušují izraelské síly válečné právo. Páchání závažných porušení válečného práva, jako jsou nerozlišující útoky na civilní obyvatelstvo se zločinným záměrem, jsou válečnými zločiny.

Izrael by měl rovněž zajistit, aby vzhledem k tomu, že je v Gaze okupační mocností, jeho používání digitálních nástrojů neporušovalo práva Palestinců na soukromí. V květnu 2024 objevila organizace Human Rights Watch údaje, které izraelská armáda zřejmě chybně zveřejnila na internetu a které obsahovaly zřejmě provozní údaje týkající se systémů používaných ke sledování evakuace a pohybu osob v Gaze a také k projekci pravděpodobných civilních škod, které by způsobily útoky v konkrétních oblastech. Tyto údaje byly obsaženy ve zdrojovém kódu informačních webových stránek izraelské armády o evakuaci a obsahovaly osobní údaje a příjmení nejpočetnějších rozvětvených rodin v každém bloku.

Zveřejnění těchto údajů izraelskou armádou na internetu porušuje právo Palestinců na soukromí a ukazuje, že armáda nepřijímá dostatečná bezpečnostní opatření ohledně údajů, které shromažďuje, uvedla organizace Human Rights Watch.

Organizace Human Rights Watch zaslala 13. května izraelské armádě dopis s podrobnými otázkami, ale armáda na něj neodpověděla.

Podle ministerstva zdravotnictví bylo za posledních 10 měsíců v Gaze zabito více než 40 000 lidí a 94 000 jich bylo zraněno. Více než 70 % civilní infrastruktury a přes 60 % civilních domů bylo zničeno nebo vážně poškozeno. Prakticky všichni obyvatelé Gazy byli vyhnáni ze svých domovů. Podle Human Rights Watch je nutné nestranné vyšetřování použití těchto digitálních nástrojů, aby se zjistilo, zda a do jaké míry nezákonně přispěly ke ztrátám na životech a majetku civilistů a jaké kroky jsou nutné k zabránění budoucím škodám.

„Používání závadných technologií v jakémkoli kontextu může mít negativní důsledky pro lidská práva, ale riziko v Gaze nemůže být větší,“ řekl Campbell. „Používání těchto digitálních nástrojů izraelskou armádou k podpoře vojenského rozhodování by nemělo vést k nezákonným útokům a vážným škodám na civilním obyvatelstvu.“

Zdroj v angličtině ZDE

0
Vytisknout
1183

Diskuse

Obsah vydání | 13. 9. 2024