BBC: Sexuální zneužívání generované umělou inteligencí

30. 12. 2024

čas čtení 7 minut
(Z publicistického pořadu "Today" rozhlasu BBC z pátku 27.12., který se z velké části věnoval umělé inteligenci.)

 

Množství sexuálního zneužívání dětí generovaného umělou inteligencí na internetu překročilo hranici, ze které není návratu. Tvrdí to nadace Internet Watch Foundation. Hovoříme s naším kybernetickým zpravodajem Joem Tidym. Když se řekne čtyřnásobek, je to stále z poměrně malého počtu, Joe, že?

 Ano, to je pravda. Je to, je to letošní rok, kdy našli téměř 250 obrázků, a když spočítáte všechny webové stránky, které našli s tímto nelegálním zneužitím, je to 250 000 webových stránek. Takže je to velmi, velmi malé množství, ale loni jich bylo jen 51. Říkali, že to bude velký problém a že to přijde rychle, protože je prostě tak snadné ty obrázky vytvořit, a to určitě vidíme, a zdá se, že mají obavy, že zákon nedohnal technologii. Pořizování těchto snímků je samozřejmě nezákonné. Problém je samozřejmě v tom, že existují způsoby, jak to obejít, a že zákon nedokázal se zabývat tím, jak snadné je tyto snímky vytvořit, jak jsou rychlé a také jak jsou realistické. Ta sexuální videa lze nyní vytvořit pouze slovním příkazem. 

Úkolem úřadů je nejen tyto snímky stáhnout z internetu, ale také ochránit některé z těchto dětí na snímcích, a pokud hledají děti, které neexistují, má to pro zákon, pro úřady, úplně jinou vrstvu složitosti. Protože když tyto snímky najdou, musí zjistit, zda jsou skutečné. Je to skutečně situace, kdy je třeba je chránit? Je dítě skutečné? Takže obtížnost, je to velmi, velmi složité pro pro tyto organizace.

* * *

Moderátor: Odborníci, kteří monitorují sexuální zneužívání dětí na internetu, sdělují, že vytváření pornografických videí pomocí umělé inteligence již překročilo bod, z něhož není návratu. Nadace Internet Watch Foundation zveřejnila exkluzivně pro tento pořad výzkum, který ukazuje, že množství takového materiálu vyrobeného umělou inteligencí, který její analytici našli a stáhli z internetu, se za poslední rok více než zečtyřnásobilo.

Úkol zastavit sexuální zneužívání dětí na internetu. je obrovský. V loňském roce bylo organizací Internet Watch Foundation, jejímž cílem je zastavit šíření obrázků, které mají zabránit zneužívání dětí, odhaleno více než čtvrt milionu webových stránek. Dnes ráno se však IWF zaměřila na množství snímků sexuálního zneužívání dětí na internetu vytvářených umělou inteligencí, které, jak jste slyšeli ve zprávách, je podle nich za hranicí únosnosti. Podle IWF se toto množství za poslední rok více než zečtyřnásobilo. Pojďme si promluvit s výkonným ředitelem Internet Watch Foundation Derekem Ray-Hillem.

Vysvětleme si, o čem je řeč. Co umožňuje umělá inteligence pedofilům dělat? Je to tak jednoduché, jako říci, že nyní mohou převést textovou fantazii nebo úchylku do podoby, která  je jako skutečný obrázek?

Derek Ray-Hill: Ano.  Chci říct, že  si musíte v první řadě představit, což pro mnohé z vašich posluchačů v půl osmé ráno může být příliš, za což se omlouvám, skupinu zlovolných, nemocných a zlých lidí, jejichž koníčkem je shromažďování obrázků znásilňovaných a sexuálně zneužívaných dětí, a ve chvíli, kdy do této rovnice zavedete umělou inteligenci, jste pak schopni replikovat obrázky, vytvářet obrázky, které ani neexistují. Udržovat tento naprosto zvrácený zvyk sbírání tohoto materiálu. Existuje obrovské množství expanzivního materiálu a my nikdy nebudeme přesně vědět, kolik toho materiálu je. Jak už řekl váš kolega, víme jen to, co víme. Vidíme jen to, co vidíme. Ale co říkáme, je to, že za poslední rok jsme u našich analytiků zaznamenali čtyřnásobný nárůst tohoto materiálu.

Moderátor: Stále se jedná o relativně velmi malou část snímků sexuálního zneužívání dětí, kterými se zabýváte. Takže když mluvíte o bodu, odkud není návratu. K jakému bodu směřujete? Proč chcete, aby se pozornost soustředila na tuto relativně malou část snímků, které jsou v současné době k dispozici?

Derek Ray-Hill:  Bod, z něhož není návratu, se skutečně týká skutečnosti, že vy i já bychom někdy měli problém rozlišit umělý snímek od skutečného snímku, a to činí práci s identifikací, kategorizací a odstraňováním materiálů týkajících se sexuálního zneužívání dětí mnohem, mnohem obtížnější, protože prostě na první pohled nevíte, zda jde o skutečný snímek, falešný snímek skutečného snímku nebo falešný snímek.

Moderátor: Aby bylo jasno, vytváření těch falešných snímků je stále nezákonné, ale chce to nějaké další změny v zákoně, aby se to zpřísnilo?

Derek Ray-Hill: Rozhodně. Není totiž nezákonné naučit umělou inteligenci vytvářet tyto materiály a není nezákonné mít příručku o tom, jak lze umělou inteligenci naučit vytvářet tyto materiály. Což si  myslíme, že je je morálně ponižující a právně absurdní.

Moderátor:  Takže byste zašli tak daleko, že byste udělali paralelu, jako že, víte, je to trochu jako říct, že existuje zákon zakazující odpálení bomby. Ale měly by být také zákony o příručkách pro výrobu bomby.  Je to paralela v tom, jak bychom měli uvažovat?

Derek Ray-Hill: Rozhodně. Nicku, mohu jen říci, že to umíte formulovat mnohem lépe než já, stále hledám kvalitní vyslance pro Internet Watch Foundation, pokud máte zájem.

Moderátor: Snažíme se to vysvětlit. Co byste tedy chtěli, aby vláda změnila? Aby zavedla nový právní delikt nebo sérii právních deliktů?

Derek Ray-Hill:  Vláda tedy rozhodně musí výslovně stanovit, že je nezákonné mít nástroj na učení umělé inteligence vytvářet snímky znásilňovaných a sexuálně zneužívaných dětí. To je bod jedna. Za druhé, a to je složitější, technokratická odpověď, v této zemi se skutečně chystá jeden z nejvýznamnějších právních předpisů na světě, který se zavádí ve snaze zajistit bezpečnost lidí v online světě, což je zákon o bezpečnosti online. Klíčovým mechanismem je úřad Ofcom a ten by měl být rozhodně odvážnější, sebevědomější, přísnější a komplexnější ve způsobu, jakým vykládá své pravomoci podle zákona o bezpečnosti na internetu.


Zdroj v angličtině ZDE 

0
Vytisknout
2084

Diskuse

Obsah vydání | 2. 1. 2025