Antivirus: AI od Googlu radí lidem o zdraví chybně, někdy i nebezpečně, varuje The Guardian

12. leden 2026

Britský zpravodajský server The Guardian zkoumal, co radí AI asistent vyhledávače Google lidem, kteří hledají informace o zdraví. A výsledky jsou varovné. Některé odpovědi od umělé inteligence jsou totiž vysloveně škodlivé. Na co si dát pozor?

Redakce Guardianu vyhledávala na Googlu informace související se zdravím a následně spolu s odborníky vyhodnocovala, jak kvalitní odpovědi poskytoval AI přehled.

„Ten se nyní zobrazuje hned navrchu nad výsledky vyhledávání. A je tedy první, co lidé najdou. Má jít o shrnutí toho, co obsahují ostatní stránky, které Google našel,“ objasňuje redaktorka Kateřina Gruntová.

Čtěte také

Zavádějící odpovědi

Novináři a novinářky Guardianu se vyhledávače ptali třeba na to, jaké jsou normální výsledky krevních testů nebo jakým způsobem je možné diagnostikovat různé typy rakoviny.

„V řadě případů byly odpovědi zavádějící, nebo dokonce přímo škodlivé. Například tím, že u rakoviny slinivky radily přesně opačnou dietu, než doporučují odborníci,“ říká redaktorka s tím, že Google také poskytoval informace, které podle expertů oslovených Guardianem mohly vést k tomu, že by lidé ignorovali skutečné příznaky.

Může být rozdíl mezi nejvhodnější odpovědí a mezi tou, která Googlu vydělá nejvíc peněz na zobrazené reklamě.
Jan Cibulka

Další problém je v tom, že na stejnou otázku dostávali různí lidé různou odpověď. „To znamená, že se jim zobrazovala pokaždé jiná rada, co mají dělat, doprovozená jinými odkazy na webové stránky s údajnými doporučeními,“ dodává redaktor Jan Cibulka.

Co na to Google?

Google v obecné rovině řekl, že přehledy tvořené svým AI asistentem považuje za spolehlivé a že jejich kvalita odpovídá svou přesností shrnutím, která vyhledávač poskytoval už dříve.

Zároveň ale také po zveřejnění zjištění Guardianu Google některá AI shrnutí týkající se zdraví odstranil. „Proč to společnost udělala, i když krátce předtím tvrdila, že AI generovaná shrnutí jsou v pořádku, k tomu se odmítla vyjádřit,“ říká Gruntová.  

Čtěte také

A Cibulka dodává, že výsledky testování, které Guardian provedl, přitom nejsou úplně překvapivé. Předchozí testy podobného typu ukázaly, že nevhodné rady AI asistenti poskytují i v případě finančního poradenství.

A chybují také, když shrnují informace ze zpravodajství. Podle výzkumu Evropské vysílací unie, na kterém spolupracoval i Český rozhlas, obsahuje vážnou chybu polovina AI odpovědí.

„Tohle je rizikové, protože jak už jsme říkali, AI shrnutí je první věc, kterou Google uživatelům ukáže, a ti si po jeho přečtení už neotevřou další výsledky vyhledávání. Lidé jsou navíc historicky zvyklí, že informace, které Google zobrazuje nahoře, jsou ty nejkvalitnější.“

Čtěte také

Nepřesnosti se opakují

Google s tímto návykem pracuje a plánuje do AI výsledků umisťovat reklamy na nákup zboží. „Problém je v tom, že může být rozdíl mezi nejvhodnější odpovědí a mezi tou, která Googlu vydělá nejvíc peněz na zobrazené reklamě, „upozorňuje Cibulka

Je šance, že se AI chatboti časem zdokonalí? „Vyloučit do budoucna nemůžeme nic, ale zatím se problémy s přesností odpovědí AI asistentů pořád opakují,“ říká redaktorka s tím, že jde přitom o produkty největších světových technologických firem, které ani po několika letech masivních investic nenalezly řešení.

„Proto stále platí, že nejlepší zdravotní radu vám poskytne lékař, který na rozdíl od chatbota může provést potřebné testy,“ uzavírá redaktor.

Spustit audio

Mohlo by vás zajímat

Nejposlouchanější

Více z pořadu

E-shop Českého rozhlasu

Závěr příběhu staré Karviné, který měl zůstat pod zemí

Karin Lednická, spisovatelka

kostel_2100x1400.jpg

Šikmý kostel 3

Koupit

Románová kronika ztraceného města - léta 1945–1961. Karin Lednická předkládá do značné míry převratný, dosavadní paradigma měnící obraz hornického regionu, jehož zahlazenou historii stále překrývá tlustá vrstva mýtů a zakořeněných stereotypů o „černé zemi a rudém kraji“.