Systémy umělé inteligence by mohly „trpět“, pokud by dosáhly vědomí, varuje výzkum

4. 2. 2025

čas čtení 3 minuty
 

Odborníci a myslitelé podepsali otevřený dopis vyjadřující obavy z nezodpovědného vývoje technologie

Podle otevřeného dopisu, který podepsali odborníci na umělou inteligenci a myslitelé včetně sira Stephena Frye, hrozí, že systémy umělé inteligence schopné cítit nebo si uvědomovat sebe sama mohou být poškozeny, pokud bude tato technologie vyvíjena nezodpovědně.

Více než 100 odborníků navrhlo pět zásad pro zodpovědný výzkum vědomí umělé inteligence, protože rychlý pokrok vyvolává obavy, že by tyto systémy mohly být považovány za vnímající.

 
Mezi tyto zásady patří upřednostnění výzkumu zaměřeného na pochopení a posouzení vědomí UI, aby se zabránilo „špatnému zacházení a utrpení“.

Dalšími zásadami jsou: stanovení omezení pro vývoj vědomých systémů UI, postupný přístup k vývoji takových systémů, sdílení výsledků s veřejností a zdržení se zavádějících nebo příliš sebevědomých prohlášení o vytvoření vědomé UI.

Mezi signatáři dopisu jsou akademici, například sir Anthony Finkelstein z Londýnské univerzity, a odborníci na umělou inteligenci ze společností, jako je Amazon nebo reklamní skupina WPP.

Dopis byl zveřejněn spolu s novou výzkumnou zprávou, která tyto zásady nastiňuje. Dokument tvrdí, že v blízké budoucnosti by mohly být vytvořeny vědomé systémy umělé inteligence - nebo alespoň takové, které budou budit dojem, že jsou vědomé.

„Může se stát, že bude možné vytvořit velké množství vědomých systémů, které budou trpět,“ uvádějí výzkumníci a dodávají, že pokud by se výkonné systémy umělé inteligence dokázaly samy reprodukovat, mohlo by to vést k vytvoření ‚velkého množství nových bytostí, které si zaslouží morální ohledy‘.

Článek, jehož autory jsou Patrick Butlin z Oxfordské univerzity a Theodoros Lappas z Athénské univerzity ekonomie a obchodu, dodává, že i společnosti, které nemají v úmyslu vytvářet vědomé systémy, budou potřebovat pokyny pro případ „neúmyslného vytvoření vědomých entit“.

Uznává, že ohledně definice vědomí v systémech umělé inteligence a toho, zda je vůbec možné, panuje všeobecná nejistota a neshoda, ale tvrdí, že jde o problém, který „nesmíme ignorovat“.

Další otázky, které dokument nastoluje, se zaměřují na to, co dělat se systémem umělé inteligence, pokud je definován jako „morální pacient“ - entita, na které morálně záleží „sama o sobě, kvůli ní samotné“. V takovém případě si klade otázku, zda by zničení UI bylo srovnatelné se zabitím zvířete.

Článek, publikovaný v časopise Journal of Artificial Intelligence Research, rovněž varuje, že mylné přesvědčení, že systémy UI jsou již vědomé, by mohlo vést k plýtvání politickou energií, protože by se vyvíjely chybné snahy o podporu jejich blaha.

Článek a dopis zorganizovala výzkumná organizace Conscium, která je částečně financována společností WPP a jejímž spoluzakladatelem je Daniel Hulme, vedoucí pracovník pro umělou inteligenci společnosti WPP.

V loňském roce skupina vysoce postavených akademiků tvrdila, že existuje „reálná možnost“, že některé systémy umělé inteligence budou do roku 2035 vědomé a „morálně významné“.

V roce 2023 sir Demis Hassabis, vedoucí programu umělé inteligence společnosti Google a nositel Nobelovy ceny, uvedl, že systémy umělé inteligence v současnosti „rozhodně“ nejsou vnímavé, ale v budoucnu by mohly být.

„Filozofové se zatím nedohodli na definici vědomí, ale pokud máme na mysli jakési sebeuvědomění, takové věci, myslím, že existuje možnost, že by AI jednou mohla být,“ řekl v rozhovoru pro americkou televizní stanici CBS.

Zdroj v angličtině ZDE

0
Vytisknout
998

Diskuse

Obsah vydání | 6. 2. 2025