Představte si, že se zeptáte umělé inteligence na zdravotní problém – a ona vám nabídne přesvědčivé vysvětlení, seznam příznaků i doporučení, co dělat dál. Zní to užitečně. Co když je ale celý příběh smyšlený?
Právě to se stalo v experimentu popsaném v dubnu 2026 v časopise Nature. Vědci si zcela záměrně vymysleli fiktivní nemoc s názvem Bixonimania a publikovali o ní několik očividně pseudovědeckých textů. Jejich cíl byl jednoduchý: ověřit, zda velké jazykové modely dokážou rozpoznat, že jde o podvod.
Výsledek byl znepokojivý. AI systémy tuto neexistující nemoc převzaly jako fakt.
Co přesně se pokazilo
Když byly běžně dostupné chatovací AI dotázány na Bixonimanii, odpovídaly s jistotou, jako by šlo o skutečně popsanou chorobu. Vymýšlely:
- údajné příznaky,
- možné příčiny,
- a dokonce i doporučení k vyhledání lékařské péče.
Problém nebyl jen v tom, že AI „nevěděla“. Zásadní bylo, že nepřiznala nejistotu. Místo toho generovala plynulé a důvěryhodně znějící odpovědi – přesně takové, které u uživatelů vzbuzují pocit autority.
Proč jsou jazykové modely tak zranitelné
Tento případ hezky ilustruje základní vlastnost dnešních generativních modelů:
AI nerozlišuje pravdu a lež, ale pravděpodobnost textu.
Modely jsou trénovány na obrovském množství veřejně dostupných dat z internetu. Pokud se v nich objeví opakující se vzorce – byť založené na nesmyslech – AI je dokáže převzít a reprodukovat. Neověřuje zdroje, nekontroluje realitu, pouze skládá slova tak, aby odpověď „dávala smysl“ z jazykového hlediska.
Tzv. halucinace modelů nejsou chybou jednotlivého systému, ale strukturálním problémem současné architektury generativní AI.
Proč by nás to mělo zajímat
Na první pohled může jít o kuriozitu. Ve skutečnosti ale podobné selhání představuje reálné společenské riziko:
- lidé mohou uvěřit nepravdivým zdravotním informacím,
- mohou podléhat zbytečnému strachu,
- nebo naopak zanedbat skutečné zdravotní potíže.
Ještě širší dopad má tato schopnost AI posilovat pseudovědu. Stačí malé množství falešných zdrojů – a model je začne nabízet v dobré víře dál.
Ponaučení pro uživatele i vývojáře
Případ Bixonimanie není důkazem, že je AI „zlá“ nebo neužitečná. Je ale jasným připomenutím, že:
- jazykové modely nejsou autoritou na pravdu,
- jejich výstupy je nutné kriticky hodnotit,
- a v citlivých oblastech, jako je zdravotnictví, musí sloužit pouze jako doplněk, nikoli zdroj rozhodování.
Pro vývojáře to znamená potřebu lepší práce se zdroji, důraz na nejistotu odpovědí a jasnější komunikaci limitů těchto systémů.
Závěr
AI umí mluvit sebevědomě – i když nemá pravdu. A čím lépe to umí, tím důležitější je, abychom jí nevěřili automaticky. Příběh vymyšlené nemoci je v tomto smyslu drobný experiment s velkým poselstvím: kritické myšlení zůstává lidskou odpovědností, kterou za nás žádný model nepřevezme.
Informační zdroje
Stokel-Walker, C. Scientists invented a fake disease. AI told people it was real. Nature, 7. 4. 2026.
https://www.nature.com/articles/d41586-026-01100-y
Důležité upozornění: tento článek vytvořila AI COPILOT.