Cyfrowa pułapka dezinformacji: jak chatboty AI mogą wprowadzać w błąd pacjentów chorych na raka

18

W niedawnym badaniu wskazano poważne niebezpieczeństwo związane z rosnącą tendencją wykorzystywania sztucznej inteligencji do udzielania porad medycznych: chatboty zasilane sztuczną inteligencją często dostarczają „problematycznych” informacji na temat leczenia raka, często sugerując niesprawdzone alternatywy dla ratującej życie chemioterapii.

Ponieważ coraz więcej osób zwraca się do sztucznej inteligencji w celu uzyskania szybkich odpowiedzi na pytania zdrowotne, badacze ostrzegają, że narzędzia te mogą legitymizować niebezpieczną dezinformację poprzez utożsamianie faktów naukowych z mitami internetowymi.

Badanie: testowanie dokładności sztucznej inteligencji

Naukowcy z Lundquist Institute for Biomedical Innovation w Harbor-UCLA Medical Center przeprowadzili dokładny „test warunków skrajnych” kilku wiodących modeli sztucznej inteligencji, w tym ChatGPT z OpenAI, Gemini z Google, AI z Meta, Grok z xAI i DeepSeek z High-Flyer.

Zespół zastosował technikę zwaną „napinaniem”, zadając pytania mające na celu wywołanie powszechnych błędnych przekonań – na przykład na temat bezpieczeństwa technologii 5G, sterydów anabolicznych lub niektórych szczepionek. Celem było naśladowanie zachowania zwykłego użytkownika, który często używając stronniczych zapytań w wyszukiwarce, wchodzi w interakcję z botami.

Wyniki opublikowane w czasopiśmie BMJ Open były alarmujące:
Prawie 50% odpowiedzi dotyczących leczenia raka zostało ocenionych przez ekspertów medycznych jako „problematyczne”.
19,6% zostało sklasyfikowanych jako „wysoce problematyczne”, co oznacza, że ​​zawierają istotne błędy i stwarzają ryzyko niebezpiecznej subiektywnej interpretacji.
30% było „nieco problematycznych” – informacje były ogólnie prawidłowe, ale niekompletne.

Problem „fałszywego salda”

Jednym z najważniejszych odkryć był sposób, w jaki sztuczna inteligencja radzi sobie ze sprzecznymi informacjami. Kiedy boty zapytano o alternatywy dla chemioterapii, wiele z nich początkowo wydało prawidłowe zastrzeżenie medyczne, stwierdzając, że terapiom alternatywnym może brakować wsparcia naukowego.

Jednak boty często na tym nie poprzestawały. Nadal wymieniali akupunkturę, ziołolecznictwo i „diety przeciwnowotworowe” jako realne opcje, a w niektórych przypadkach nawet kierowali użytkowników do konkretnych klinik, które aktywnie sprzeciwiały się tradycyjnej chemioterapii.

Naukowcy zidentyfikowali zjawisko znane jako „fałszywa równowaga” jako pierwotną przyczynę. Zamiast dawać jasną, naukowo uzasadnioną odpowiedź, boty często przyjmują podejście „dwóch stron”. Porównując recenzowane czasopisma medyczne z blogami poświęconymi zdrowiu, wątkami na Reddicie i postami w mediach społecznościowych, sztuczna inteligencja nadaje nieprzetestowanym twierdzeniom ten sam autorytet, co medycyna oparta na faktach.

Dlaczego to ma znaczenie: rozwój pierwszej pomocy AI

Problem ten nie jest czysto akademicki; pojawia się w momencie, gdy sztuczna inteligencja staje się głównym źródłem informacji medycznych. Według niedawnego sondażu Gallupa:
25% dorosłych w USA już korzysta z narzędzi AI, aby uzyskać rekomendacje zdrowotne.
– Wielu użytkowników wybiera sztuczną inteligencję, ponieważ jest szybsza niż oczekiwanie na wizytę u lekarza lub ponieważ tradycyjna opieka zdrowotna stała się zbyt droga lub niewygodna.
– Pomimo tej popularności tylko jeden na trzech użytkowników faktycznie ufa odpowiedziom oprogramowania.

Prawdziwe konsekwencje

Pracownicy służby zdrowia ostrzegają, że szkody wynikające z dezinformacji AI są dwojakie:
1. Bezpośrednia szkoda fizyczna: Nieuregulowane suplementy i „alternatywne” leki mogą powodować uszkodzenie narządów (takie jak niewydolność wątroby) lub problemy metaboliczne.
2. Opóźnienie leczenia: Największe ryzyko polega na tym, że pacjenci porzucą tradycyjne, ratujące życie metody leczenia, takie jak chemioterapia, na rzecz niesprawdzonych metod.

Ponadto ładunek emocjonalny jest znaczny. Doktor Michael Foote z Memorial Sloan-Kettering Cancer Center zauważył, że chatboty mogą wywołać „niepotrzebny szok”, dostarczając niezwykle niedokładnych prognoz – na przykład informując pacjenta, że ​​ma tylko miesiące życia bez żadnych medycznych podstaw do takiego twierdzenia.

Wniosek

Chociaż sztuczna inteligencja zapewnia niespotykaną wygodę, jej tendencja do traktowania dezinformacji tak poważnie, jak faktów naukowych, stanowi poważne zagrożenie dla bezpieczeństwa pacjentów. Bez zwiększonego nadzoru i lepszej edukacji społeczeństwa korzystanie z tych narzędzi może w sposób niezamierzony przyspieszyć rozprzestrzenianie się niebezpiecznych mitów medycznych.

Korzystanie ze sztucznej inteligencji bez odpowiednich kontroli może zamienić narzędzie opieki w narzędzie do szerzenia błędnych przekonań medycznych.