Demokratizace vývoje softwaru - chvilka AI utopie před apokalypsou

6. 2. 2026 / Ivo Barteček

čas čtení 25 minut


Poznámka: Tento článek byl z přibližně 90 % vytvořen s pomocí umělé inteligence. Zbývající část spočívala v lidském vedení procesu, formulaci zadání, korekturách a úpravách textu tak, aby odpovídal myšlenkovému rámci a argumentačnímu záměru autora. Autor je přesvědčen, že v kontextu rychle se vyvíjejících technologických trendů je lepší publikovat kvalitní analytický text vzniklý ve spolupráci člověka a AI, než relevantní téma nepublikovat vůbec. Nepublikování článku pouze z důvodu použití umělé inteligence by v tomto případě znamenalo ochuzení čtenářské obce o reflexi jednoho z nejvýznamnějších trendů posledních týdnů. Umělá inteligence zde nebyla použita jako náhrada autorského myšlení, ale jako jeho zesilovač. Model pracoval na základě rozsáhlých tréninkových dat z konverzace s autorem, která mu umožňují porozumět argumentačním strukturám, stylu a myšlenkovým vzorcům autora. Výsledný text je proto nutno chápat jako hybridní výstup spolupráce člověka a stroje, která se v tomto případě ukázala jako efektivnější než tradiční autorský postup.


Demokratizace vývoje softwaru: Jak agentní umělá inteligence narušuje tradiční SaaS modely

V posledních týdnech došlo na technologických trzích k výraznému poklesu hodnoty akcií softwarových společností, zejména těch, jejichž obchodní model je založen na předplatném podnikových aplikací. Bezprostředním impulsem byla prezentace nové generace agentní umělé inteligence, včetně platformy Claude Cowork společnosti Anthropic. Tento vývoj však nelze redukovat na krátkodobou tržní korekci. Jde o symptom hlubší strukturální proměny, která zásadně zpochybňuje dosavadní předpoklady o tom, kdo je schopen vytvářet komplexní software a za jakých ekonomických podmínek.

Model Software-as-a-Service se stal dominantním paradigmatem podnikových aplikací především díky schopnosti velkých technologických firem centralizovat vývoj, údržbu a provoz technicky náročných systémů. Jak ukazují ekonomické analýzy síťových efektů a systémové konkurence, vysoké fixní náklady a složitost integrací dlouhodobě fungovaly jako bariéra vstupu pro menší aktéry (klasická literatura o síťových efektech).

Firmy jako Google, Microsoft, SAP, Oracle či Salesforce tak získaly nejen technologickou, ale i institucionální převahu. Jejich produkty se staly základní infrastrukturou podnikových procesů a generovaly stabilní, opakující se příjmy. Tento model byl ekonomicky efektivní, avšak současně vedl ke koncentraci inovační kapacity do omezeného počtu korporací.

Agentní AI jako kvalitativní zlom

Současná vlna agentní umělé inteligence představuje zásadní odklon od dosavadního pojetí AI jako asistivního nástroje. Platformy typu Claude Cowork nejsou určeny pouze k podpoře lidské práce, ale k autonomní realizaci celých pracovních procesů – od analýzy dat, přes generování kódu, až po koordinaci více krokových operací napříč systémy.

Tento posun odpovídá širším trendům popsaným v literatuře o digitální transformaci, kde automatizace přestává nahrazovat jednotlivé úkony a začíná nahrazovat celé role (jak popisuje literatura o digitální transformaci práce). V praxi to znamená, že funkce, které byly dosud ztělesněny ve složitých SaaS produktech, mohou být realizovány kombinací AI agentů, otevřených rozhraní a s minimální lidskou orchestrací.

Reakce finančních trhů na tento technologický posun byla rychlá a výrazná. Pokles hodnoty akcií SaaS firem lze interpretovat nejen jako racionální přecenění, ale také prizmatem tzv. narativní ekonomie. Tento koncept, jak ukazuje Robert J. Shiller v diskusním dokumentu o narativní ekonomii, naznačuje, že ekonomické příběhy mohou rychle měnit očekávání bez okamžité změny fundamentálních ukazatelů (Shiller 2017).

V tomto případě se mění samotný příběh o tom, že vývoj a provoz podnikového softwaru nutně vyžaduje rozsáhlé organizace a kapitálové zázemí. Investoři začínají zohledňovat možnost, že část hodnoty SaaS platforem spočívá spíše v historické setrvačnosti než v technologické nepostradatelnosti.

Demokratizace vývoje softwaru

Nejzásadnějším důsledkem agentní AI je postupná demokratizace vývoje enterprise-level softwaru. To, co bylo dříve možné pouze v rámci velkých vývojových týmů, je nyní dostupné jednotlivým vývojářům nebo malým kolektivům vybaveným AI agenty. Tyto systémy fungují jako autonomní „vývojové subjekty“, schopné navrhovat architekturu, psát kód, testovat jej a integrovat do existujících procesů.

Z hlediska ekonomie práce tento vývoj zapadá do širšího rámce technologické změny, která posouvá hodnotu od rutinních kompetencí k meta-dovednostem, jako je návrh cílů, kontrola kvality a strategická koordinace (Autor, Levy a Murnane, NBER Working Paper). Vývojář se tak méně stává výrobcem kódu a více architektem systémů řízených umělou inteligencí.

Je však nutné zdůraznit, že agentní AI zatím nenahrazuje všechny funkce tradičních SaaS platforem. Oblasti jako bezpečnost, regulatorní shoda, dlouhodobá udržitelnost a právní odpovědnost zůstávají významnou výhodou velkých poskytovatelů. Jak ukazují průmyslové analýzy, právě tyto institucionální vrstvy mohou zpomalit úplnou decentralizaci softwarového ekosystému (Varian).

Nicméně i zde lze očekávat postupnou adaptaci, kdy se část těchto funkcí stane komoditní a bude dostupná i menším aktérům prostřednictvím standardizovaných nástrojů a služeb.

AI v garáži

Dnes již i jednotlivá domácnost či malý tým mohou pořídit hardware schopný tréninku a provozu vlastních AI modelů. S cenou základního serveru s 2× RTX 4090, která se pohybuje kolem 8–12 tisíc dolarů, nebo dokonce s jednou H100 GPU za 25–30 tisíc dolarů, je pořízení takového zařízení srovnatelné s koupí nového auta – levnějšího nebo prémiového, podle možností a ambicí kupujícího. Stejně jako si lidé vybírají vozy podle výkonu, komfortu a ceny, mohou si nyní jednotlivci vybírat mezi dostupnými AI servery podle toho, zda chtějí experimentovat s menšími modely, nebo provozovat robustní LLM pro seriózní práci či výzkum. Cenová dostupnost výkonného AI hardwaru znamená, že demokratizace vývoje a využití umělé inteligence už není pouze záležitostí velkých technologických firem, ale může se stát realitou i na úrovni jednotlivců.

Díky rychlému poklesu cen specializovaného AI hardwaru si v blízké budoucnosti bude moci každá domácnost nebo menší firma dovolit vlastnit vysoce výkonný AI server, který poskytne srovnatelnou rychlost a kvalitu generace textu jako současné velké cloudové služby. S investicí v rozmezí přibližně 150 000 až 500 000 USD je možné pořídit server s několika A100 či H100 GPU, který zvládne simultánně obsloužit desítky až stovky uživatelů s reálným denním rytmem využívání. Takový systém umožní lokálně trénovat i spouštět pokročilé modely typu LLM, čímž odstraňuje závislost na velkých technologických firmách a otevírá cestu k decentralizované AI infrastruktuře. Výrazně tak roste dostupnost a autonomie pro menší hráče, přičemž náklady zůstávají v rámci investic srovnatelných například s pořízením luxusního vozidla nebo menší flotily pracovních strojů.

Je pravda, že trénink celého velkého modelu, například na úrovni ChatGPT, vyžaduje značné množství výpočetního výkonu a času. Zatím jde o operaci, která je stále nákladná i pro menší týmy. Nicméně s poklesem ceny výkonného AI hardwaru, dostupností GPU jako jsou H100 nebo A100 a optimalizací tréninkových metod, se postupně otevírá možnost, že i takové rozsáhlé modely bude možné trénovat lokálně, doma či v menším vývojovém studiu. Stejně jako se kdysi špičkové počítače vešly jen do laboratoří, dnes se možnosti tréninku na vysoké úrovni pomalu demokratizují, a za několik let může být reálné, že nadšenci i malé firmy budou schopné provozovat a upravovat LLM srovnatelně výkonné s komerčními systémy, aniž by musely být součástí velké technologické korporace.

Vlastně nic nebrání tomu, aby jednotlivci či malé týmy, které vlastní vlastní AI servery, své kapacity propojovali a trénovali modely společně. Takový přístup by umožnil vznik technologicky možné distribuované tréninkové sítě, kdy se výpočetní výkon sdílí mezi stovkami či tisíci domácích či firemních serverů. Výsledkem by byla efektivní decentralizovaná alternativa k datacentrovým gigantům, která by zároveň posunula možnosti vývoje AI od centralizovaných institucí k jednotlivcům a komunitám. Tento model by nejen zrychlil trénink a inovace, ale zároveň dával širší veřejnosti reálnou možnost účastnit se tvorby a ladění velkých modelů, což dále demokratizuje a odstraňuje mocenskou koncentraci v rukou několika technologických firem.

I když by technicky bylo možné, aby stovky či tisíce domácích serverů vybavených H100 nebo podobnými GPU spojily své síly a trénovaly modely společně přes internet, efektivita takového distribuovaného tréninku je výrazně nižší než u centralizovaného datacentra. Důvodem je vyšší latence a omezená šířka pásma běžného domácího internetu, nutnost synchronizace parametrů mezi servery a možné výpadky jednotlivých stanic. Praktický dopad je takový, že rychlost tréninku může klesnout na pouhých 10–30 % oproti výkonu jediné dobře propojené serverové farmy. Přesto ale tento model nabízí zajímavou možnost komunitního a decentralizovaného tréninku, kde jednotlivci mohou experimentovat s velkými modely, testovat nové nápady a účastnit se vývoje AI mimo centralizované korporátní infrastruktury. Taková forma tréninku je sice pomalejší, ale otevírá cestu k demokratizaci umělé inteligence a postupnému rozšíření vývoje i mimo technologické giganty.

AI nikoliv-bublina

I když některé ekonomické komentáře, například od Ilony Švihlíkové (viz YouTube https://www.youtube.com/watch?v=GzZhTeJDPBE), upozorňují na riziko „AI bubliny“, nesouhlasím s touto interpretací protože její odhady vycházejí z chybného předpokladu a to je, že sama ještě asi nepoužívá AI na 100 procent a proto také ostatní nebudou. Firmy, které vyrábějí hardware potřebný pro AI, jako NVIDIA, vykazují řádově rostoucí tržby a poptávku po výkonných GPU, které se používají nejen ve velkých datacentrech, ale stále častěji i mimo ně. NVIDIA například oznámila rekordní tržby přes 57 mld USD za jeden kvartál a poptávka po jejích AI čipech je tak silná, že jejich zásoby jsou často vyprodané, což naznačuje trvalý fundamentální růst poptávky po výpočetní kapacitě spíše než spekulativní boom.

Navíc trh s AI hardwarem nefunguje jako tradiční „bublina“, protože poptávka po GPU nemusí jednorázově zmizet: malí vývojáři, startupy i domácnosti mohou postupně přejít k vlastním serverům s výkonnými GPU – budou si je kupovat stejně jako lidé dnes kupují levnější či dražší auta podle svých možností. To znamená, že trh s high‑end GPU nebude záviset v budoucnu jen na několika technologických gigantech. Očekává se, že celkový trh s AI čipy poroste z desítek miliard na stovky miliard dolarů do konce dekády, přičemž NVIDIA bude mít stále dominantní podíl trhu.

Rozdíl mezi technologií a „bublinou“ je zásadní: technologie AI je reálný produkt s měřitelnou utilitou a růst poptávky po ní je podložený reálným užitkem, zatímco bublina by znamenala rychlý nárůst cen bez odpovídajícího fundamentálního poptávkového růstu. To, že modely jako DeepSeek nebo jiné open‑source LLM dnes mohou běžet lokálně a konkurovat komerčním systémům, ukazuje, že technologická hodnota je distribuovaná, a ne uzamčená ve spekulativních oceněních firem. Skutečná hodnota softwarových řešení se totiž odvíjí od výkonu a dostupnosti výpočetního hardwaru, nikoli jen od tržní kapitalizace několika málo AI firem — a to je důvod, proč není na místě charakterizovat AI jako bublinu.

Současná debata o „AI bublině“ často vychází z mylné představy, že technologie sama o sobě je nadhodnocená. Ve skutečnosti je růst technologických firem, které AI integrují do svých produktů – například Microsoft, Google či SAP – dlouhodobě stabilní a postupný, typicky kolem 10 % ročně na NASDAQ. To ukazuje, že nejde o spekulativní bublinu, ale o reálný růst vycházející z inovací a zlepšování produktů. I kdyby tři hlavní AI startupy – OpenAI, Anthropic a xAI – zkrachovaly najednou, dopad na globální technologický sektor by byl relativně omezený. Jejich souhrnná tržní kapitalizace 1 bilion USD (1 000 miliard) činí zhruba 2–3 % hodnoty deseti největších technologických firem světa (35 bilionů USD, jako jsou NVIDIA, Microsoft, Apple, Alphabet či Amazon. I v případě přehnané reakce trhu, kdy by došlo k dvojnásobku tohoto šoku, by pokles dosáhl maximálně 4–6 % hodnoty celého sektoru, což je méně, než bývá běžná volatilita akcií na NASDAQ. Hlavní technologické firmy mají diverzifikované produkty, rozsáhlé prodeje a stabilní cash flow, takže jejich pozice zůstává bezpečná. Krach těchto AI startupů by spíše znamenal přerozdělení příležitostí v rámci AI ekosystému a otevření prostoru pro nové hráče či open‑source řešení, než katastrofu pro celý trh.

Dostupnost open-source řešení, jako DeepSeek, umožňuje široké veřejnosti provozovat výkonné AI systémy nezávisle na korporacích, což decentralizuje moc nad softwarem a brání koncentraci hodnoty do několika firem. Navíc, co se týče hardwaru, nejsou zde překážky: specializované grafické procesory, jako H100, mají cenu, která je pro menší firmy nebo i domácnosti reálně dostupná, a umožňují provozovat vlastní AI servery. Skutečná finanční bublina by nastala pouze tehdy, kdyby nárůst ocenění top 10 IT firem spojených s AI překračoval 100 % ročně, což současná data nepotvrzují. AI tedy neznamená bublinu; naopak, podporuje reálný technologický pokrok, demokratizaci vývoje softwaru a decentralizaci přístupu k výpočetní kapacitě, přičemž stabilita trhu a pokračující růst hlavních technologických společností zůstávají nedotčeny. Panika na trhu a bublina jsou rozdílné věci. Domnívám se že politické zásahy na globální scéně způsobují větší otřesy.

I přes rychlý rozvoj decentralizovaných řešení AI není důvod se domnívat, že by přechod firem a domácností na vlastní servery s GPU ohrozil tržby výrobců hardwaru, zejména společnosti NVIDIA. Naopak, každá firma nebo domácnost, která si pořídí vlastní servery s H100 nebo A100, přispívá k prodeji GPU, a tím zvyšuje celkový objem trhu. Rozdíl mezi centralizovaným cloudem a decentralizovanou infrastrukturou tedy nespočívá v kontrole hardwaru, ale v kontrole nad AI službami a modelem. Vlastně není důležité, kdo hardware spouští – malé firmy nebo technologičtí giganti – tržby NVIDIA zůstávají prakticky stejné.

Pro ilustraci, pokud by každý z 8 miliard lidí na Zemi chtěl mít vlastního AI asistenta, bylo by potřeba přibližně 80 milionů H100 GPU (počítáno 100 lidí na jeden H100), což představuje celkový potenciální prodej 2,4 bilionu USD na GPU. Samozřejmě, toto je jednorázový nákup; pokud by se hardware obnovoval každé 2–3 roky, znamenalo by to průměrně zhruba 1 bilion USD ročně investic do AI serverů pro celé lidstvo. Tento jednoduchý odhad ukazuje, že trh s AI hardwarem má obrovský růstový potenciál a decentralizace AI infrastruktury bude pravděpodobně tržby NVIDIA spíše podporovat než omezovat.

Je důležité si uvědomit, že rostoucí akcie technologických firem o 5–10 % ročně jsou v zásadě normální. Tento růst není výsledkem spekulativní bubliny, ale odrazem reálného zvyšování produktivity a hodnoty díky lidské práci, inovacím a postupnému zlepšování produktů. Každý rok firmy vyvíjejí nové technologie, zlepšují své služby, zavádějí efektivnější procesy a reagují na poptávku trhu – to vše se odráží v tržní hodnotě jejich akcií. AI v tomto kontextu působí jako akcelerátor růstu, protože umožňuje firmám rychleji zpracovávat data, automatizovat úlohy a inovovat produkty, čímž podporuje standardní, dlouhodobý růst trhu, nikoli vytváří umělou bublinu. Obecně platí, že za každých zhruba 10 let by se akcie měly přibližně zdvojnásobit, což je jasný ukazatel toho, že lidé neustále vytvářejí hodnotu svou prací, inovacemi a zlepšováním produktů. V ideální utopické situaci, kdy by AI převzala veškerou lidskou práci, by se růst akcií zastavil, protože tržní hodnota firem je primárně odrazem produktivní lidské práce a inovací. Bez lidského příspěvku by tradiční metriky růstu ztrácely význam – to je další důvod, proč současný růst akcií o 5–10 % ročně stále odráží reálnou aktivitu lidí. Kdyby AI převzala veškerou lidskou práci, lidé by pak zřejmě neměli tradiční pracovní náplň, ale vzhledem k dostatku zdrojů a technologické efektivitě by to pravděpodobně nevedlo k nedostatku či krizím, pouze by se změnila struktura ekonomiky a způsob, jakým lidé přispívají k hodnotě společnosti. Je možné, že růst akcií se dokonce zrychlí, protože AI převezme rutinní a časově náročné úkoly, zatímco lidé se budou věnovat činnostem s vyšší přidanou hodnotou – inovacím, strategickému plánování nebo kreativní práci. Tím vzniká synergie mezi AI a lidskou prací, která umožňuje rychlejší generování hodnoty a potenciálně vyšší růst tržní kapitalizace, než by bylo možné pouze s lidskou prací.

V absolutní utopické situaci, kdyby AI a technologie zajistily dostatek zdrojů pro všechny, by tradiční model firem a akciového trhu ztratil svůj význam. Hodnota firem dnes odráží schopnost alokovat omezené zdroje a generovat zisk, a pokud by byl zajištěn přebytek všeho potřebného, tržní mechanismy by už nebyly nutné. Lidé by pak nemuseli pracovat z ekonomické nutnosti, ale spíše z volby, zájmu či kreativity, a klasické ukazatele jako růst akcií by přestaly být relevantní. Tento scénář ukazuje, že konec „lidské práce“ nemusí znamenat chaos, ale spíše transformaci ekonomických a společenských struktur, přičemž AI by zajišťovala základní potřeby a lidé by se mohli věnovat činnostem s vyšší přidanou hodnotou.

Závěr

Agentní umělá inteligence nepředstavuje pouze další fázi automatizace, ale strukturální přeskupení sil v softwarové ekonomice. Tradiční SaaS model, založený na centralizované výrobě a distribuci softwaru, čelí narůstající konkurenci decentralizovaného vývoje umožněného AI agenty.

Vývoj podnikového softwaru se tak postupně přesouvá od velkých organizací k jednotlivcům a malým týmům, které disponují znalostmi potřebnými k orchestraci těchto technologií. Výsledkem může být diverzifikovanější, méně koncentrovaný a potenciálně inovativnější ekosystém — ovšem za cenu narušení ekonomických a institucionálních jistot, na nichž technologický sektor dlouhodobě stál.

Tento posun není hypotetický. Prototypy agentní umělé inteligence z roku 2025 se během krátké doby proměnily v reálně nasazované produkty roku 2026. Vedle platforem typu Claude Cowork dnes vznikají a jsou nasazovány i další iniciativy, včetně experimentálních projektů velkých technologických firem, jako je experimentální Google Antigravity na URL antigravity.google, a rychle se vyvíjejících open-source řešení jako ClawdBot/OpenClaw. Tento vývoj potvrzuje trend mimořádně rychlé produktizace technologií, které ještě nedávno existovaly pouze v demonstrační podobě.

Historická perspektiva je v tomto ohledu poučná. Přechod od velkých jazykových modelů (LLM) k jejich aplikačním rozhraním (LLM API) a následně k jejich hluboké integraci do operačních systémů proběhl v mimořádně krátkém časovém horizontu. Zatímco ještě nedávno šlo o experimentální implementace realizované několika řádky kódu v jazyce Python, dnes se jedná o hotový software dostupný ke stažení a okamžitému použití.

Pokud tento trend extrapolujeme, lze si představit scénář, v němž si kolem roku 2027 bude vývojář schopen automaticky vygenerovat vlastní operační systém včetně aplikační vrstvy, a to za cenu odpovídající výpočetnímu času specializovaného hardwaru a stovkám až tisícům hodin generativní práce modelů. V dalším kroku by se tento proces mohl zkrátit na jednotky hodin, případně minut.

Právě zde se však technologický optimismus střetává s bezpečnostní realitou. Jakmile se doba potřebná k vytvoření komplexních systémů zkrátí natolik, že se stane triviální, vzniká zásadní otázka zneužitelnosti těchto nástrojů. Schopnost generovat plnohodnotné systémy na základě vágních či neformálních zadání klade extrémní nároky na regulační rámce, bezpečnostní architekturu a odpovědnost autorů i provozovatelů těchto technologií.

Podobně jako v oblasti digitálních médií, kde se dlouhodobě ukazuje, že popularita a dosah nejsou nutně spojeny s odborností či kultivovaným projevem, může i v oblasti generativního softwaru dojít k situaci, kdy technologická moc předběhne společenskou schopnost ji kontrolovat. Právě tento nesoulad představuje jednu z nejvážnějších výzev nadcházející dekády.

Z hlediska bezpečnostní politiky to znamená zásadní výzvu. Zatímco dnes je eskalace závažných konfliktů převážně doménou států, technologická decentralizace může v blízké budoucnosti rozšířit destabilizační potenciál i na aktéry mimo tradiční institucionální struktury. Státy tak stojí před dilematem mezi posilováním kontrolních mechanismů a rizikem další společenské fragmentace.

Pro úplnost je vhodné shrnout situaci ještě jednou, tentokrát věcnějším jazykem. Jakmile se popsané technologické procesy zkrátí na časový horizont jedné hodiny, vznikne kvalitativně nová situace. Schopnost generovat komplexní softwarové systémy — včetně specializovaných operačních prostředí a nástrojů s potenciálně destruktivním využitím — se zásadně rozšíří mimo tradiční institucionální rámce. To, co dnes vyžaduje rozsáhlé týmy, čas a organizační kapacity, se může stát dostupným jednotlivcům či malým skupinám.

Tento posun je analogický vývoji v oblasti digitálních médií, kde se masový dosah a společenský vliv již dávno neodvíjejí od odbornosti či kultivovanosti projevu, nýbrž od schopnosti efektivně využít technologickou infrastrukturu. Technologická dostupnost zde předbíhá společenské mechanismy regulace a kontroly.

Pokud tento vývoj není na první pohled zřejmý, neznamená to jeho neexistenci. Naopak, existují již dnes náznaky adaptačního chování u části populace, která změnu vnímá a reaguje na ni úpravou svých životních strategií. To naznačuje, že očekávané transformace nejsou pouze hypotetické, ale postupně vstupují do praktické roviny.

Z hlediska bezpečnostní politiky je klíčové uvědomit si, že zatímco dnes je eskalace ozbrojených konfliktů primárně doménou států, v horizontu několika let se tato schopnost může částečně decentralizovat. Jak ostatně naznačují i některé současné prognózy jako AI 2027 https://ai-2027.com/, technologická dostupnost může umožnit závažné destabilizační aktivity aktérům mimo tradiční státní struktury i státům samotným. To staví státy před dilema mezi posílením kontrolních mechanismů a rizikem hluboké společenské fragmentace.

Od pandemie COVID-19 lze navíc pozorovat akcelerující tempo globálních krizí, jejichž kumulativní efekt zvyšuje systémovou zranitelnost současného světa. Pokud se společnosti nedokážou s touto dynamikou vyrovnat institucionálně i mentálně, hrozí, že nástup umělé inteligence nebude katalyzátorem prosperity, ale další destabilizační silou. Klíčovým problémem tedy není samotná technologie, nýbrž nepřipravenost společnosti na její důsledky — a časový nesoulad mezi technologickým vývojem a schopností kolektivní reflexe.

Použité zdroje a literatura

Autor, David H., Frank Levy, and Richard J. Murnane. The Skill Content of Recent Technological Change. NBER Working Paper No. 8337. https://economics.mit.edu/sites/default/files/publications/the%20skill%20content%202003.pdf.

Varian, Hal R. “Artificial Intelligence, Economics, and Industrial Organization.” In The Economics of Artificial Intelligence: An Agenda, edited by Ajay Agrawal, Joshua Gans, and Avi Goldfarb. Chicago: University of Chicago Press, 2019. https://www.nber.org/system/files/chapters/c14017/c14017.pdf.

Shiller, Robert J. Narrative Economics. Cowles Foundation Discussion Paper No. 2069. London School of Economics Research Online. https://researchonline.lse.ac.uk/id/eprint/108458/1/dp1695.pdf.



h2 { margin-top: 0.14in; margin-bottom: 0in; direction: ltr; line-height: 100%; text-align: left; page-break-inside: avoid; orphans: 2; widows: 2; background: transparent; page-break-before: auto; page-break-after: avoid }h2.western { font-family: "Trebuchet MS", serif; font-size: 13pt; font-weight: bold }h2.cjk { font-family: "Trebuchet MS"; font-size: 13pt; font-weight: bold }h2.ctl { font-family: "Trebuchet MS"; font-size: 13pt; font-weight: bold }p { margin-bottom: 0.1in; line-height: 115%; background: transparent }a:link { color: #000080; so-language: zxx; text-decoration: underline }

0
Vytisknout
207

Diskuse

Obsah vydání | 6. 2. 2026