AI vytváří obrovské množství videí a fotografií sexuálního zneužívání dětí

18. 10. 2024

čas čtení 4 minuty

Množství materiálu sexuálního zneužívání dětí generovaného umělou inteligencí je děsivé a dosahuje kritického bodu. Konstatuje to nadace Internet Watch Foundation. Ta každoročně odstraní stovky tisíc snímků a tvrdí, že za posledních šest měsíců jich už zaznamenala více než za celý předchozí rok. Téměř všechny na otevřeném webu. Sophie Baybrooková přínáší tuto reportáž:

Jedná se o malou holčičku ve věku 7 až 10 let a je to velmi realistický, extrémně násilný obrázek. Je to to nejhorší z nejhoršího, pokud jde o zobrazení sexuálního zneužívání dětí.

Za posledních šest měsíců našla nadace Internet Watch Foundation více webových stránek obsahujících zneužívání dětí, snímků a videí vytvořených pomocí umělé inteligence než za předchozích 12 měsíců. Nelegální obsah se neskrývá jen na dark webu. Z 99 % byl nalezen na stránkách snadno přístupných veřejnosti.

 


Skutečně vidíte, co existuje v myslích těch nejhorších lidí, protože ti jsou nyní schopni vytvořit to, co je napadne.

Nevěřili byste, že to nejsou skutečné fotografie, protože jsou tak realistické.

Přestože jsou tyto snímky falešné, oběti jsou skutečné. To jsou některé z věcí, které charitativní organizace slyší od obětí tohoto typu zneužívání. Vyprávění jsou založena na příbězích skutečných mladých lidí, ale jejich slova namluvili herci.

„Jsem tak vyděšená. Nevím, co mám dělat. Někdo, koho jsem potkal na internetu, použil nějakou hlubokou falešnou umělou inteligenci, aby natočil pornografické video. Je na něm můj obličej. Vypadá to tak opravdově. Bojím se, co se stane, když to zjistí moji přátelé.“

„Museli vzít fotky z mého Instagramu a upravit je. Ty fotky jsou opravdu přesvědčivé. Mám hrozný strach, že je pošlou mým rodičům.“

Instagram právě oznámil nová opatření, kterými se snaží bojovat proti sexuálnímu vydírání na svém serveru, včetně funkce, která automaticky rozmazává nahé obrázky zaslané v přímých zprávách. 

Tato technologie je tak snadno použitelná, že tyto snímky vytvářejí i žáci ve školách - podle údajů, které byly exkluzivně poskytnuty zpravodajskému kanálu Channel 4 News, 6 % z více než 3 000 učitelů zjistilo, že jejich žáci používají umělou inteligenci k vytváření sexuálně explicitních snímků svých spolužáků.

Díky AI nemusí hledat  pachatel sexualizovaný obrázek dítěte, protože si tyto obrázky může vytvořit sám. Zneuživatel pak může jít tak trochu tradiční cestou vydírání. Začít tím, že požádá o, o další snímky nebo r požádá o peníze.

Existují také důkazy, že někteří lidé, kteří si tento materiál prohlížejí, mohou pokračovat v páchání zneužívání dětí offline. Jeden psycholog, který pracuje s pachateli trestných činů, mi řekl, že někteří lidé mohou být vůči tomu znecitlivěni, což je vede k tomu, že vyhledávají skutečné fotografie nebo fyzické interakce s dětmi, aby dosáhli stejné úrovně sexuálního uspokojení.

Charitativní organizace jako IWF a ChildLine se zabývají důsledky tohoto materiálu, ale zdůrazň ují, že je třeba jej zastavit u zdroje. NSPCC sdělila, že američtí vývojáři, kteří vytvářejí software pro umělou inteligenci a stránky sociálních médií, kde jsou snímky často sdíleny, objektivně nezavedli ochranná opatření, která by zabránila zneužívání jejich produktů pachateli. A že vláda musí ochranu dětí zařadit do centra své strategie v oblasti umělé inteligence.

Mluvčí britského ministerstva vnitra uvedl, že úzce spolupracujís partnery z řad orgánů činných v trestním řízení, technologickými experty IWF a dalšími charitativními organizacemi na ochranu dětí, abychom identifikovali více pachatelů zneužívajících tyto nové technologie a postavili je před soud.

Tento materiál generovaný umělou inteligencí je pouze částí obrovského množství materiálu zneužívání dětí na internetu, ale vzhledem ke zdokonalování technologií panují obavy, že jde pouze o začátek nového znepokojivého trendu.

1
Vytisknout
1811

Diskuse

Obsah vydání | 22. 10. 2024