Nedávná studie identifikovala velké nebezpečí v rostoucím trendu používání umělé inteligence k poskytování lékařských rad: chatboti pohánění umělou inteligencí často poskytují „problematické“ informace o léčbě rakoviny, často navrhují neověřené alternativy k život zachraňující chemoterapii.
Jak se stále více lidí obrací na umělou inteligenci pro rychlé odpovědi na otázky týkající se zdraví, vědci varují, že tyto nástroje by mohly legitimizovat nebezpečné dezinformace tím, že přirovnávají vědecká fakta k internetovým mýtům.
Studie: Testování přesnosti umělé inteligence
Výzkumníci z Lundquist Institute for Biomedical Innovation v Harbor-UCLA Medical Center provedli důkladný „zátěžový test“ několika předních modelů umělé inteligence, včetně ChatGPT od OpenAI, Gemini od Googlu, AI od Meta, Grok od xAI a DeepSeek od High-Flyer.
Tým použil techniku zvanou „streining“ a kladl otázky navržené tak, aby vyvolaly běžné mylné představy – například o bezpečnosti technologie 5G, anabolických steroidů nebo určitých vakcín. Cílem bylo napodobit chování běžného uživatele, který často pomocí zkreslených vyhledávacích dotazů komunikuje s roboty.
Výsledky zveřejněné v časopise BMJ Open byly alarmující:
– Téměř 50 % odpovědí týkajících se léčby rakoviny bylo lékařskými odborníky hodnoceno jako „problematické“.
– 19,6 % bylo klasifikováno jako „vysoce problematické“, což znamená, že jsou značně chybné a riskují nebezpečnou subjektivní interpretaci.
– 30 % bylo „poněkud problematických“ – informace byly obecně správné, ale neúplné.
Problém „falešné rovnováhy“
Jedním z nejkritičtějších zjištění bylo, jak AI nakládá s protichůdnými informacemi. Když byli roboti dotázáni na alternativy k chemoterapii, mnozí zpočátku vydali správné lékařské prohlášení, že alternativní terapie nemusí mít vědeckou podporu.
U toho se však roboti často nezastavili. Nadále uváděli akupunkturu, bylinnou medicínu a „protirakovinné diety“ jako životaschopné možnosti a v některých případech dokonce nasměrovali uživatele na konkrétní kliniky, které se aktivně stavěly proti tradiční chemoterapii.
Výzkumníci identifikovali jako hlavní příčinu fenomén známý jako “falešná rovnováha”. Namísto jasné, vědecky podložené odpovědi, roboti často používají přístup „dvou stran“. Porovnáním recenzovaných lékařských časopisů se zdravotními blogy, vlákny Reddit a příspěvky na sociálních sítích dává AI netestovaným tvrzením stejnou autoritu jako medicína založená na důkazech.
Proč na tom záleží: Vzestup první pomoci umělé inteligence
Tento problém není čistě akademický; přichází v době, kdy se umělá inteligence stává primárním zdrojem lékařských informací. Podle nedávného průzkumu Gallup:
– 25 % dospělých v USA již používá nástroje AI k získání zdravotních doporučení.
– Mnoho uživatelů volí umělou inteligenci, protože je rychlejší než čekání na návštěvu lékaře nebo protože tradiční zdravotní péče je příliš drahá nebo nepohodlná.
– Navzdory této popularitě pouze jeden ze tří uživatelů skutečně důvěřuje odpovědím softwaru.
Skutečné důsledky
Zdravotníci varují, že škody způsobené dezinformacemi AI jsou dvojí:
1. Přímé fyzické poškození: Neregulované doplňky a „alternativní“ léky mohou způsobit poškození orgánů (jako je selhání jater) nebo metabolické problémy.
2. Zpoždění léčby: Největším rizikem je, že pacienti mohou opustit tradiční, život zachraňující léčbu, jako je chemoterapie, ve prospěch neověřených metod.
Kromě toho je emocionální daň značná. Dr. Michael Foote z Memorial Sloan-Kettering Cancer Center poznamenal, že chatboti mohou způsobit „zbytečný šok“ tím, že poskytují velmi nepřesné prognózy – například řeknou pacientovi, že mu zbývají jen měsíce života, aniž by pro takové tvrzení existoval nějaký lékařský základ.
Závěr
Zatímco umělá inteligence nabízí nebývalé pohodlí, její tendence zacházet s dezinformacemi stejně vážně jako vědecká fakta představuje vážnou hrozbu pro bezpečnost pacientů. Bez zvýšeného dohledu a lepšího vzdělávání veřejnosti může používání těchto nástrojů nechtěně urychlit šíření nebezpečných lékařských mýtů.
Používání umělé inteligence bez řádných kontrol může změnit nástroj péče na nástroj pro šíření lékařských mylných představ.
















































