Lavender: Jak Izrael vyvražďuje civilisty pomocí umělé inteligence
5. 4. 2024
Moderátor, Channe...11. 4. 2024
Záběry vyvolávají otázky ohledně přesnosti nedávného prohlášení o
využívání umělé inteligence Izraelskými obrannými silami (IDF), které
uvedly, že "nepoužívají systém umělé inteligence, který by identifikoval
teroristické operativce nebo se snažil předvídat, zda je osoba
teroristou".
Ve videu však vedoucí oddělení datové vědy a umělé
inteligence v jednotce 8200 - jmenovaný pouze jako "plukovník Yoav" -
uvedl, že odhalí "příklad jednoho z nástrojů, které používáme", a poté
popsal, jak zpravodajská divize použila techniky strojového učení při
izraelské ofenzivě v Gaze v květnu 2021 k "vyhledávání nových
teroristů".
"Řekněme, že máme nějaké teroristy, kteří tvoří
skupinu, a my známe jen některé z nich," řekl. "Praktikováním našeho
kouzelného prášku datové vědy jsme schopni najít i ostatní z nich."
Popisy
technologií používaných jednotkou 8200 na videu se podobají nedávným
svědectvím šesti zasvěcených pracovníků IDF o tom, že během ofenzivy
proti Hamásu používají nástroj umělé inteligence nazvaný "Lavender ".
Uvedli, že databáze vytvořená umělou inteligencí byla použita na pomoc
zpravodajským důstojníkům zapojeným do bombardovací kampaně v Gaze a
pomohla identifikovat desítky tisíc potenciálních lidských cílů.
Ve svém vyvrácení IDF uvedla, že některá z těchto svědectví jsou "nepodložená". Svědectví však odpovídají Yoavovým výrokům během konference o umělé inteligenci na univerzitě v Tel Avivu v únoru loňského roku. Video, na kterém je Yoava slyšet mluvit, ale není vidět, bylo umístěno na univerzitním kanálu YouTube a až donedávna mělo méně než 100 zhlédnutí.
Když Yoav vystoupil na pódium ve vojenské uniformě, bylo publikum instruováno, aby Yoava nefotilo a nenahrávalo jeho prezentaci. "Je to dobře, protože mám špatný den na vlasy," zažertoval.
V desetiminutové prezentaci - nazvané "digitální transformace a umělá inteligence v oblasti zpravodajství" - plukovník nabídl vzácný pohled na to, jak tajné systémy umělé inteligence využívají vojenské a zpravodajské orgány.
Vysvětlil, že když jednotka 8200 využívá umělou inteligenci k předvídání, zda je někdo terorista, bere informace, které má o lidech, o nichž se domnívá, že jsou členy teroristických skupin, a snaží se "najít ostatní členy skupiny".
S odkazem na konkrétní příklad úředník uvedl, že při vojenské operaci IDF v Gaze v květnu 2021 jeho oddělení tento princip použilo k "nalezení velitelů oddílů Hamásu a teroristů s protitankovými střelami v Gaze, aby proti nim mohlo operovat".
Vysvětlil, že pomocí určité formy strojového učení - známé jako "pozitivní učení bez označení" - "vezmeme původní podskupinu, vypočítáme jejich blízké okruhy, poté vypočítáme příslušné rysy a nakonec seřadíme výsledky a určíme práh".
Plukovník uvedl, že zpětná vazba zpravodajských důstojníků se používá "k obohacení a zlepšení našeho algoritmu", a zdůraznil, že rozhodují "lidé z masa a kostí". "Z etického hlediska na to klademe velký důraz," řekl a dodal, že "tyto nástroje mají pomoci překonat jejich bariéry".
Podle Yoava se jednotce 8200 podařilo prolomit "lidskou bariéru" během květnové ofenzivy v roce 2021, kdy se jí podařilo vytvořit více než 200 nových cílů. "Byly doby, kdy nám toto množství trvalo téměř rok," řekl.
IDF uvedly, že plukovníkova účast na konferenci byla schválena armádou. Mluvčí však popřel, že by jeho výroky byly v rozporu s nedávným popíráním IDF ohledně používání umělé inteligence. V jemné změně formulace, kterou ve svém původním prohlášení nepoužila, IDF sdělila, že její systémy umělé inteligence "nevybírají cíle" pro útok.
"IDF nikdy nepopřela existenci databáze operativců teroristických organizací, která křížově prověřuje existující informace o těchto operativcích," uvedla. "Zároveň si IDF plně stojí za svým prohlášením, že nepoužívá systémy umělé inteligence, které vybírají cíle pro útok, a že dotyčná databáze není seznamem operativců způsobilých k útoku. V tom není žádný rozpor."
Šest zpravodajských důstojníků, kteří minulý týden promluvili, ve své výpovědi uvedlo, že nástroj Lavender byl využíván k identifikaci potenciálních cílů v nebývalém rozsahu a tempu. IDF nebyly obviněny z používání systémů, které automaticky vybírají cíle pro útok.
Čtyři z těchto zdrojů uvedli, že v jedné fázi na počátku války Lavender evidoval až 37 000 mužů v enklávě, kteří byli systémem AI spojeni s Hamásem nebo s palestinským Islámským džihádem. Žádný ze zdrojů nepopřel, že by se na procesu schvalování úderů podíleli lidé, i když některé připustily minimální lidský dohled.
"V této fázi bych do každého cíle investoval 20 vteřin a denně bych jich realizoval desítky," uvedl jeden ze zpravodajských důstojníků. "Jako člověk jsem měl nulovou přidanou hodnotu, kromě toho, že jsem byl schvalovacím razítkem. Ušetřilo to spoustu času."
Jejich výpovědi zveřejnil izraelsko-palestinský časopis +972, jeho hebrejsky psaná verze Local Call a deník Guardian.
Plukovníkův popis partnerství mezi umělou inteligencí a zpravodajským personálem je ozvěnou modelu cílených operací, který si představoval jeho velitel, šéf jednotky 8200 Yossi Sariel, který nechal svou identitu odhalenou na internetu, když tajně napsal knihu vydanou v roce 2021 s názvem The Human Machine Team.
V jedné fázi plukovník vysvětlil, že oddělení umělé inteligence a datové vědy, které v jednotce 8200 řídí, je interně známé také jako "centrum integrace lidských strojů".
V projevu osm měsíců před zahájením operací IDF v Gaze po útocích vedených Hamásem 7. října plukovník optimisticky hovořil o tom, jak se IDF přesouvají "z doby pohlednic do digitální éry", kdy "najednou můžete během bitvy reagovat pomocí aplikovaných řešení založených na datové vědě".
Diskuse