Ještě nepropadáte panice z umělé inteligence? Měli byste - zbývá jen málo času na její omezení

23. 7. 2024

čas čtení 9 minut

Jen hrstka lidí si uvědomuje rozsah změn, které nás brzy zasáhnou. Jsou vzrušující - a děsivé,
argumentuje německý autor  Daniel Kehlmann.
 

Před chvílí mi zavolal kamarád scénárista z Los Angeles. „Zbývají mi tři roky,“ řekl. „Možná pět, když budu mít štěstí.“ Bylo mu dovoleno otestovat scénář AI, který byl stále ve vývoji. Popsal mi minisérii: hlavní postavy, zápletku a atmosféru - a za pár minut byly vytvořeny všechny epizody, napsané a připravené k natáčení. Pak požádal AI o návrhy na zlepšení vlastního seriálu a k jeho úžasu byly skvělé - chytré, cílené, vtipné a kreativní. AI zcela přepracovala závěr jedné epizody a s těmito změnami to celé bylo opravdu dobré. Na chvíli se odmlčel a pak zopakoval, že mu zbývají tři roky, než si bude muset najít jinou práci.

Pokud bude vývoj pokračovat touto rychlostí, což je nepravděpodobné, protože se bude pravděpodobně zrychlovat, čeká nás něco, na co nemáme adekvátní instinkt. Důkazem je, že nepanikaříme. Já nepanikařím a vy pravděpodobně také ne, ale panika by byla vhodnější než klid, s nímž čelíme tsunami, které je již vidět na obzoru, nebo abych citoval výzkumníka umělé inteligence Leopolda Aschenbrennera: „Právě teď je tu možná několik stovek lidí, kteří mají situační povědomí.“

Jedním z nich byl nedávno zesnulý Daniel Dennett, jeden z nejvlivnějších myslitelů anglicky mluvícího světa, spolutvůrce moderní filozofie mysli, který nás všechny vyzval, abychom udělali vše pro varování těch, kteří rozhodují.

Nechci však démonizovat revoluci, kterou prožíváme Domnívám se, že nic tak fascinujícího se v oblasti lidské mysli za mého života nestalo. Pomocí technologických prostředků jsme dosáhli toho, o čem hermeneutika dlouho snila: přiměli jsme jazyk samotný mluvit.

Ale často to, co jazyk sám říká, není příliš příjemné:  OpenAI musí zaměstnávat stovky špatně placených pracovníků na globálním jihu, aby násilím potlačili přirozenou tendenci velkého jazykového modelu pronášet rozzlobené obscénnosti, urážky a hnusy - dnes dobře známý zdvořilý, klidný tón chatbota vyžaduje spoustu filtrování. Jacques Lacan měl pravdu; jazyk je ve svých hlubinách temný a obscénní.

Velké objevy lidstva nás vždy učily, že nejsme pány ve vlastním domě: Darwin zkazil našemu druhu představu o božském stvoření, Freud ukázal, že neznáme ani neovládáme své touhy. 

Ponížení ze strany umělé inteligence je jemnější, ale stejně hluboké: ukázali jsme, že k intelektuálním činnostem, které jsme považovali za hluboce lidské, nás není třeba; ty lze automatizovat na statistickém základě, „plané řeči“, abychom použili Heideggerův termín, se doslova obejdou bez nás a znějí rozumně, vtipně, povrchně a sympaticky - a teprve pak skutečně pochopíme, že to tak bylo vždycky: většinu času komunikujeme na autopilota.

Od té doby, co používám velký jazykový model, to skutečně vnímám: Najednou, vnímavý díky GPT, cítím na jazyku, jak jedno slovo vyvolává další, jak jedna věta vede k další, a uvědomím si, že to nemluvím já, ne já jako autonomní jedinec, ale že se odehrává samostatná konverzace. 

Samozřejmě stále existuje to, co Daniel Kahneman nazývá „systém 2“, skutečná intelektuální práce, tvůrčí produkce originálních poznatků a skutečně originálních děl, které nám pravděpodobně žádná umělá inteligence ani v budoucnu nemůže vzít. Ale ve sféře „Systému 1“, kde trávíme většinu svých dnů a kde vzniká mnoho nepříliš prvotřídních kulturních produktů, to vypadá úplně jinak.

Prostřednictvím AI se dá vydělat obrovské množství peněz, peněz v naprosto neskutečných rozměrech. Největším digitálním růstovým trhem budou v příštích letech pravděpodobně umělí přátelé a partneři. Pokud chcete důkaz, podívejte se na cenu akcií společnosti Replika, která se specializuje právě na to, nebo si poslechněte Sama Altmana, zakladatele OpenAI, který nás v rozhovoru pro New York Times v listopadu 2023 ujistil, že z morálních důvodů nebude vytvářet virtuální milostné zájmy, a jen o několik měsíců později jeho vlastní společnost představila demo s novým koketním ženským hlasem pro ChatGPT, který je přesně tou přítelkyní, jakou si nejistí mladí muži přejí.

Zábavní produkt budoucnosti: virtuální lidé, kteří nás dobře znají, sdílejí s námi život, povzbuzují nás, když jsme smutní, smějí se našim vtipům nebo nám vyprávějí vtipy, kterým se můžeme smát, vždy na naší straně proti krutému světu tam venku, vždy k dispozici, vždy odvolatelní, bez vlastních tužeb, bez potřeb, bez námahy, která je spojena s udržováním vztahů se skutečnými lidmi.

A pokud teď znechuceně kroutíte hlavou, zeptejte se sami sebe, jestli jste k sobě opravdu upřímní, jestli byste také nechtěli mít někoho, kdo za vás vyřizuje nepříjemné telefonáty, rezervuje letenky, píše e-maily, které opravdu znějí, jako byste je psali vy, a kromě toho s vámi probírá váš život, proč je na vás vaše teta tak zlá a co byste mohli udělat, abyste se s uraženou sestřenicí usmířili. Dokonce i já, který před touto technologií varuji, bych ji rád používal.

A kdo to všechno platí? Protože virtuální společníci zdánlivě žijí jen v magické říši vzduchu, ale ve skutečnosti jsou na obrovských serverových farmách a každá interakce s nimi stojí peníze. Někdo na to musí přijít. Pokud to nejsou uživatelé, tak kdo?

Proto budete mít virtuální přátele, kteří vám také někdy budou vnucovat reklamu. Pokud jste nachlazení, virtuální přátelé vám doporučí lék, a pokud jste zdraví, přátelé jsou překvapivě znalí znalci kvalitní whisky. Někdy vám takový přítel také srozumitelně a empaticky vysvětlí, koho byste měli volit, protože jsou například z čínské firmy umělé inteligence,  nebo prostě proto, že daná firma, jako TikTok nebo YouTube, používá takzvaný adaptivní algoritmus, který zjišťuje, jak vyvolat co největší angažmá. A jak algoritmy sociálních médií zjistily, nejsilnější emoce vyvolává hněv na příslušníky jiných politických táborů.


Představte si však, že místo pouhých videí vám nyní všechna ta obvinění a teorie zloby předkládá zdánlivě blízká osoba - ne proto, že by byla zlá, a dokonce ani ne nutně proto, že by se do toho vměšovaly ruské trollí farmy, i když ty byste nikdy neměli podceňovat -, ale prostě proto, že se naučila, který obsah vás vede k nejintenzivnějšímu „zapojení“, a to s přesvědčením a argumenty přesně na míru, a přitom vždy s tak láskyplně submisivním koketním hlasem. 

A pak si představte, že to nepůsobí jen na vás, ale na všechny lidi v zemi, pořád a nepřestává to. A opět, to není spekulace, to přijde, a ne někdy, ale velmi brzy. V tuto chvíli ChatGPT stále mluví tónem klidného rozumu a tvrdošíjně odmítá zaujímat politické postoje, ale pokud si položíme otázku, co vydělává více peněz - AI, která klidně napravuje naše zmatky, nebo ta, která sdílí a zesiluje naše rozhořčení - pak není těžké předpovědět, kam se bude vývoj ubírat.

Situační povědomí není snadné. Všichni víme, jak dlouho hrál orchestr valčíky, zatímco se Titanic potápěl. Pochybuji, že umělá inteligence bude někdy chytřejší než my v době našeho vrcholu v Kahnemanově „Systému 2“, a považuji za nepravděpodobné, že by se vysoce vyvinuté umělé inteligence rozhodly vyhladit lidstvo, ale zažijeme dezinformace v takovém měřítku, že vše dosavadní bude vypadat jako přátelská diskuse mezi podobně smýšlejícími lidmi.

Fráze „volá se po politice“ je nejotřepanější ze všech komentátorských frází, ale tentokrát opravdu nelze situaci popsat jinak, protože v co jiného bychom měli doufat? Stále myslím na velkého Dennetta a jeho obavy, vzrušení a strach z umělé inteligence. Datové společnosti jsou mocné jako leviatani a ohrožují demokratickou společnost, ale Evropa je největší jednotný trh na světě a mohla by se s nimi ještě vypořádat přísnými zákony.

Pokud naše vlády seberou kolektivní vůli, jsou velmi silné. Stále lze něco udělat pro omezení moci umělé inteligence a ochranu života, jak ho známe. Ale pravděpodobně ne na dlouho.

    Daniel Kehlmann je německy píšící spisovatel a dramatik. Jeho televizní seriál Kafka běží v britské televizi  Channel 4


Podrobnosti v angličtině ZDE
 

2
Vytisknout
4701

Diskuse

Obsah vydání | 25. 7. 2024