Můžeme brzy sami sebe vyhubit. Stačí, když věcem ponecháme volný průběh

2. 5. 2013 / Karel Dolejší

V českých médiích se začínají objevovat stručné zmínky o studii oxfordského matematika Nicka Bostroma, která přináší pro mnohé zřejmě překvapivou zprávu: Lidstvo možná přežije hladomory či dokonce světovou válku, ale už během příštích padesáti či sta let nemusí přestát důsledky nepromyšleného rozvoje některých technologií, které jsou dnes považovány za "progresívní" a politici si od nich slibují obnovení růstu Růstu. Ve světovém akademickém provozu je ale zatím otázce přežití lidstva věnována mnohanásobně menší pozornost než třeba snowboardingu. Příslušníky české politické třídy, které takové "okrajové" téma jako přežití zajímá, by ovšem člověk spočítal nanejvýš na prstech jedné ruky - a dost možná ruky amputované. Horizont úvah ani v těch nejspecializovanějších vlivných analýzách zde zpravidla nepřekračuje dvacet let a naprostá většina rozhodnutí je přijímána maximálně s ohledem na aktuální volební období.

Nick Bostrom říká, že lidstvo jako druh má slušnou šanci přežít přírodní i kosmickou katastrofu, pandemie, dokonce i jaderný konflikt - už ve velmi blízké době jej však mohou zničit nezamýšlené důsledky rozvíjení některých technologií. Taková vývojová trajektorie odporuje pravidlu, jež Bostrom nazývá "Maxipok" - podle nějž prioritu má ve všech myslitelných situacích postup, který minimalizuje existenciální rizika. Za rizika tohoto druhu se ovšem nepočítá jen riziko prostého předčasného vymření lidské populace na planetě, ale také permanentní stagnace, chybné rozvinutí technologií či formu rozvoje, která trvale zruinuje vyhlídky na další úspěšný rozvoj v budoucnosti.

Nekontrolované rozvíjení technologií v oblastech umělé inteligence, syntetické biologie nebo genetiky, podpořené politickým tlakem, který předem odstraňuje všechny pochybnosti a námitky vůči rizikům, znamenají horší nebezpečí než cokoliv, co by lidstvo mohlo potkat bez jeho vlastního přičinění.

Na druhé straně akademický výzkum je stále více strukturován tak, aby lidstvo vůči podobným rizikům zaslepoval. Částečnou překážkou je multidisciplinární charakter studovaných problémů, ale také hlubší epistemologické otázky. Na studium existenciálních rizik nelze aplikovat hotové a běžně dostupné výzkumné metodologie, existují problémy v oblasti výběru reprezentativních faktů a populační etiky - a k tomu všemu přistupují psychologické faktory, které brání v jasném uvažování o takových věcech, jako je možný konec lidstva. V době diktátu "pozitivní psychologie", kdy lze v diskusi protivníka "odrovnat" povrchně emocionální rétorickou strategií zaměřenou na "pesimismus", je dosti obtížné takové otázky vůbec veřejně tematizovat.

Pokud by byly na studium existenciálních rizik věnovány větší prostředky než dosud, podle Bostroma logika vědeckého provozu povede k tomu, že budou přednostně studována vedlejší témata, na něž lze snadno aplikovat hotové metody. Naopak na studium rizik spojených s umělou inteligencí, molekulární nanotechnologií, syntetickou biologií nebo technikami směřujícími k totalitarizaci společností se vymyká ze zavedeného vědeckého provozu a šance na přidělení prostředků je zde nízká.

Snižování existenciálních rizik je v praxi komplikováno nejen nedostatkem jejich pochopení, ale také nedostatkem motivace. Jde zde totiž o globální veřejné blaho, které ohrožuje tzv. tragédie obecní pastviny - každý důležitý hráč se zajímá pouze o velmi malou část tohoto statku, která se jej bezprostředně týká, zatímco zbytek ignoruje a zanedbává. Transgenerační charakter tohoto statku znamená, že se jen z malé části týká aktuálně žijících lidí, zatímco budoucí generace, o něž tu jde, nemohou "hlasovat" při rozhodování o tom, co se jich akutně týká a může je v krajním případě vyloučit z existence. Obrovské množství budoucích lidí by dokonce podle Bostroma bylo ochotno "zaplatit současné generaci astronomické sumy" výměnou za snížení existenčních rizik, jenže z pochopitelných důvodů k takové transakci nikdy nedojde.

Existenciální rizika vyžadují proaktivní, nikoliv reaktivní přístup, protože šance poučit se z chyb je zde mizivá. Proto je zde třeba rizika předvídat, mobilizovat politickou podporu a předcházet nebezpečí v samotném zárodku, dříve, než bude pozdě. Jenže stávající instituce založené na byrokratické rutině a typizaci jsou pro takové přístupy velice nevhodné a pokus adaptovat je pro tento úkol by mohl vyústit v rozvoj utlačitelské bezpečnostní byrokracie a omezování občanských svobod, aniž by se přitom rizika podstatně snížila.

K tomu všemu přistupují obtíže při dosahování potřebné úrovně globální kooperace na těchto tématech, která v některých případech musí zahrnovat všechny státy bez výjimky, jinak by byl efekt nulový.

Veřejné povědomí o globálních rizicích lidských aktivit sice roste a existuje dlouhodobý trend posilování mezinárodní spolupráce, stejně jako různá globální hnutí, ale bez rozvoje nových výukových technik a institucionálních inovací to podle Bostroma nestačí.

Podle průzkumu, který Bostrom v roce 2008 spolu se Sandbergem provedl v expertní komunitě studující globální rizika, se odhad pravděpodobnosti vyhynutí lidstva před koncem tohoto století pohybuje na hladině 19%.

Bostrom, N.: Existential Risk Prevention as Global Priority ZDE

0
Vytisknout
10609

Diskuse

Obsah vydání | 3. 5. 2013