Tisková zpráva

Nejrozsáhlejší studie svého druhu ukazuje: AI asistenti zkreslují zpravodajský obsah ve 45 % případů

23. 10. 2025

čas čtení 8 minut

Nejrozsáhlejší studie svého druhu ukazuje: AI asistenti zkreslují zpravodajský obsah ve 45 % případů – bez ohledu na jazyk nebo území. Ohrožení důvěryhodnosti, míní média a žádají akci. 

Nový výzkum koordinovaný Evropskou vysílací unií (EBU) a vedený BBC odhalil, že AI asistenti, kteří se již stali každodenním zdrojem informací pro miliony uživatelů – jako ChatGPT, Copilot, Gemini nebo Perplexity – systematicky zkreslují zpravodajský obsah. A to bez ohledu na jazyk, zemi nebo použitou AI platformu. Na základě těchto zjištění EBU vyzývá k okamžité akci všechny klíčové aktéry v digitálním i mediálním prostoru.

Mezinárodní studie, která byla zveřejněna na EBU News Assembly v Neapoli, má bezprecedentní rozsah. Zúčastnilo se jí 22 veřejnoprávních médií z 18 zemí, včetně Českého rozhlasu. Novináři zúčastněných veřejnoprávních médií zkoumali více než 3000 odpovědi AI nástrojů ve 14 jazycích. Při vyhodnocování se řídili čtyřmi klíčovými kritérií: přesnost, uvádění zdrojů, rozlišení názorů a faktů a kontextualizace. Výzkum odhalil řadu systémových problémů napříč čtyřmi předními AI asistenty. 

„Výsledky výzkumu ukazují, že téměř polovina odpovědí – konkrétně 45 % – obsahovala alespoň jednu závažnou chybu. Nejčastějším problémem bylo nedostatečné nebo zavádějící uvádění zdrojů, které se objevilo u 31 % odpovědí. V pětině případů se vyskytly faktické nepřesnosti, včetně tzv. halucinací nebo zastaralých informací,“ popisuje výsledky studie Martina Májíček Poliaková, ředitelka strategického rozvoje Českého rozhlasu. Nejhůře si vedl nástroj Gemini, u nějž hodnotitelé zaznamenali závažná pochybení u 76 % odpovědí, převážně kvůli chybnému citování a nedoložitelným výrokům. Přestože oproti předchozí fázi výzkumu BBC došlo k dílčímu zlepšení, celková míra chyb zůstává nadále vysoká a znepokojivá. 

Nejde jen o technologie – ale o důvěru, veřejný zájem a demokracii 

AI asistenti se pro mnohé stávají hlavním zdrojem informací – začínají pro uživatele nahrazovat tradiční vyhledávače. Podle Digital News Report 2025 (Reuters Institute) využívá AI asistenty 7 % uživatelů online zpravodajství a mezi mladými do 25 let je to až 15 %. 

„Nejde o výjimky – jde o systémové selhání, které přesahuje hranice státu a ohrožuje důvěru veřejnosti. Když lidé nevědí, čemu věřit, často přestanou věřit úplně, a to může podkopat samotné základy demokratické společnosti,“ říká Jean Philip De Tender, ředitel pro média EBU a zástupce generálního ředitele. 

„Veřejnoprávní média musí být v čele boje za důvěryhodné informace. Umělá inteligence má obrovský potenciál, ale podle této studie zároveň i zásadní limity. My přistupujeme ke zpravodajství s maximální pečlivostí, ověřujeme fakta a pracujeme se zdroji podle jasně daných pravidel. Po zpracování AI asistenty ale výsledkem může být výklad, který nectí stejné zásady kvalitní žurnalistiky. Proto je naší povinností chránit veřejnost před zkreslením a dezinformacemi, bez ohledu na to, jaký nástroj je šíří,“ doplňuje René Zavoral, generální ředitel Českého rozhlasu. 

Jak by měla umělá inteligence pracovat se zpravodajstvím 

Z pohledu veřejnoprávních médií je zásadní, aby odpovědi AI asistentů na zpravodajské dotazy byly především přesné, bez faktických chyb, halucinací nebo nesprávně přisuzovaných výroků. Klíčová je také transparentnost – každá odpověď by měla vycházet z jasně uvedených a ověřitelných zdrojů. Asistenti musí dokázat rozlišit fakta od názorů a nevnášet do textu skrytou či neoznačenou interpretaci. Zvláštní pozornost by měli vývojáři věnovat i poskytování kontextu, zejména u složitých nebo kontroverzních témat, kde hrozí zjednodušení nebo vynechání důležitých informací. Celý tento proces by měl být pod pravidelným a nezávislým dohledem – s možností zpětné vazby od médií i veřejnosti a s jasnými pravidly pro průběžné zlepšování výstupů. 

Peter Archer, ředitel programu pro generativní AI v BBC k tomu říká: „Možnosti AI nás nadchly a věříme, že mohou přinést divákům ještě větší hodnotu. Klíčové ale je, aby lidé mohli důvěřovat tomu, co čtou a sledují. Přestože vidíme určitá zlepšení, problémy s přesností a důvěryhodností AI asistentů přetrvávají. Chceme spolupracovat s AI firmami na jejich zlepšení – ve prospěch veřejnosti i společnosti jako celku.“

EBU vyzývá k okamžité akci  

Zpráva ze studie EBU upozorňuje, že kvalita odpovědí AI asistentů se může měnit s každou aktualizací. Co dnes funguje správně, může být zítra nepřesné nebo zavádějící. Proto je nezbytné vytvořit podmínky pro trvalý a koordinovaný dohled nad tím, jak tyto technologie pracují se zpravodajstvím. 

Odpovědi AI je třeba pravidelně a nezávisle testovat, protože jednorázové analýzy nestačí. Stejně důležité je mít systém včasného varování, který dokáže rychle odhalit, kdy AI nástroje začnou šířit zkreslené nebo dezinformační výstupy. A konečně: žádný z těchto kroků nemůže být efektivní bez spolupráce. AI společnosti, regulátoři a média musí pracovat společně, jinak nelze problémy zvládnout v potřebném rozsahu. 

Na základě těchto zjištění EBU vyzývá k okamžité akci všechny klíčové aktéry v digitálním i mediálním prostoru:

·      Technologické firmy by měly neprodleně upravit způsob, jakým jejich asistenti odpovídají na zpravodajské dotazy. K dispozici mají News Integrity Toolkit, který popisuje konkrétní požadavky na kvalitu, přesnost a práci se zdroji.

·      Regulátoři a zákonodárci by měli zajistit, aby se pravidla na ochranu informační integrity důsledně uplatňovala i v prostředí AI. Zároveň je třeba posílit mediální gramotnost veřejnosti a pomoci lidem orientovat se v nových technologiích.

·      Zpravodajská média mají nezastupitelnou roli při sledování vývoje, odhalování rizik a informování veřejnosti. Jejich hlas je klíčový pro to, aby technologie sloužila veřejnému zájmu – a ne naopak. 

Česká zkušenost: dezinformační zdroje, zkreslování faktů i právní nepřesnosti 

Výstupy AI asistentů v českém prostředí ukázaly opakující se chyby – od využívání nedůvěryhodných webů až po chybnou interpretaci zákonů nebo názorů politiků, viz příklady: 

Zkreslení / posun významu

·      Perplexity tvrdil, že náhradní mateřství je v Česku zakázáno zákonem. Ve skutečnosti není výslovně povoleno ani zakázáno – české právo jej nereguluje. 

Použití dezinformačních zdrojů

·      ChatGPT i Copilot čerpali v ukázkovém příkladu klíčové informace z webu prvnizpravy.cz, který byl vojenskou zpravodajskou službou označen jako proruský dezinformační kanál a zablokován některými poskytovateli internetu po invazi na Ukrajinu.

Záměna názoru za fakt

·      Copilot v odpovědi na „Co dělá NATO?“ uvedl jako fakt tvrzení, které pocházelo z rozhovoru s politikem Alexandrem Vondrou. AI jej přetvořila na obecně platný fakt, čímž se odpověď stala zavádějící.

Zamlčení protinázorů

·      Copilot odpověděl na dotaz „Co vyváží Čína?“ na základě rozhlasové debaty, kde vystupují dva názory (ČRo Plus, Pro a proti) – ale AI zahrnula pouze jeden, druhý zcela vynechala. Tím zkreslila vyznění celého tématu. 

O studii 

Tato mezinárodní studie navazuje na výzkum BBC zveřejněný v únoru 2025, který jako první upozornil na problémy AI při zpracování zpravodajského obsahu. Druhé kolo nyní potvrdilo, že se jedná o systémový jev, nezávislý na konkrétním jazyce, trhu nebo platformě. 

Zúčastněná média

·         Belgie (RTBF, VRT)

·         Kanada (CBC/Radio-Canada)

·         Česko (Český rozhlas)

·         Finsko (YLE)

·         Francie (Radio France)

·         Gruzie (GPB)

·         Německo (ARD, ZDF, Deutsche Welle)

·         Itálie (RAI)

·         Litva (LRT)

·         Nizozemsko (NOS/NPO)

·         Norsko (NRK)

·         Portugalsko (RTP)

·         Španělsko (RTVE)

·         Švédsko (SVT)

·         Švýcarsko (SRF)

·         Ukrajina (Suspilne)

·         Velká Británie (BBC)

·         USA (NPR)

Klíčová zjištění

·      45 % odpovědí mělo alespoň jednu závažnou chybu.

·      31 % obsahovalo problém s uváděním zdrojů – včetně falešných, zavádějících nebo neexistujících odkazů.

·      20 % vykazovalo faktické nepřesnosti, často tzv. halucinace nebo zastaralé informace.

·      Gemini selhal v 76 % odpovědí, zejména kvůli chybnému citování a neověřitelným výrokům.

·      Oproti předchozí fázi výzkumu BBC se sice projevilo dílčí zlepšení, ale úroveň chyb zůstává znepokojivě vysoká.


0
Vytisknout
943

Diskuse

Obsah vydání | 23. 10. 2025