Když si AI vymyslí nemoc

Robot displaying system failure, data corruption, and signal loss warnings

Představte si, že se zeptáte umělé inteligence na zdravotní problém – a ona vám nabídne přesvědčivé vysvětlení, seznam příznaků i doporučení, co dělat dál. Zní to užitečně. Co když je ale celý příběh smyšlený?

Právě to se stalo v experimentu popsaném v dubnu 2026 v časopise Nature. Vědci si zcela záměrně vymysleli fiktivní nemoc s názvem Bixonimania a publikovali o ní několik očividně pseudovědeckých textů. Jejich cíl byl jednoduchý: ověřit, zda velké jazykové modely dokážou rozpoznat, že jde o podvod.

Výsledek byl znepokojivý. AI systémy tuto neexistující nemoc převzaly jako fakt.


Co přesně se pokazilo

Když byly běžně dostupné chatovací AI dotázány na Bixonimanii, odpovídaly s jistotou, jako by šlo o skutečně popsanou chorobu. Vymýšlely:

  • údajné příznaky,
  • možné příčiny,
  • a dokonce i doporučení k vyhledání lékařské péče.

Problém nebyl jen v tom, že AI „nevěděla“. Zásadní bylo, že nepřiznala nejistotu. Místo toho generovala plynulé a důvěryhodně znějící odpovědi – přesně takové, které u uživatelů vzbuzují pocit autority.


Proč jsou jazykové modely tak zranitelné

Tento případ hezky ilustruje základní vlastnost dnešních generativních modelů:

AI nerozlišuje pravdu a lež, ale pravděpodobnost textu.

Modely jsou trénovány na obrovském množství veřejně dostupných dat z internetu. Pokud se v nich objeví opakující se vzorce – byť založené na nesmyslech – AI je dokáže převzít a reprodukovat. Neověřuje zdroje, nekontroluje realitu, pouze skládá slova tak, aby odpověď „dávala smysl“ z jazykového hlediska.

Tzv. halucinace modelů nejsou chybou jednotlivého systému, ale strukturálním problémem současné architektury generativní AI.


Proč by nás to mělo zajímat

Na první pohled může jít o kuriozitu. Ve skutečnosti ale podobné selhání představuje reálné společenské riziko:

  • lidé mohou uvěřit nepravdivým zdravotním informacím,
  • mohou podléhat zbytečnému strachu,
  • nebo naopak zanedbat skutečné zdravotní potíže.

Ještě širší dopad má tato schopnost AI posilovat pseudovědu. Stačí malé množství falešných zdrojů – a model je začne nabízet v dobré víře dál.


Ponaučení pro uživatele i vývojáře

Případ Bixonimanie není důkazem, že je AI „zlá“ nebo neužitečná. Je ale jasným připomenutím, že:

  • jazykové modely nejsou autoritou na pravdu,
  • jejich výstupy je nutné kriticky hodnotit,
  • a v citlivých oblastech, jako je zdravotnictví, musí sloužit pouze jako doplněk, nikoli zdroj rozhodování.

Pro vývojáře to znamená potřebu lepší práce se zdroji, důraz na nejistotu odpovědí a jasnější komunikaci limitů těchto systémů.


Závěr

AI umí mluvit sebevědomě – i když nemá pravdu. A čím lépe to umí, tím důležitější je, abychom jí nevěřili automaticky. Příběh vymyšlené nemoci je v tomto smyslu drobný experiment s velkým poselstvím: kritické myšlení zůstává lidskou odpovědností, kterou za nás žádný model nepřevezme.


Informační zdroje

Stokel-Walker, C. Scientists invented a fake disease. AI told people it was real. Nature, 7. 4. 2026.
https://www.nature.com/articles/d41586-026-01100-y


Důležité upozornění: tento článek vytvořila AI COPILOT.


Napsat komentář