La trappola della disinformazione digitale: come i chatbot con intelligenza artificiale possono fuorviare i pazienti affetti da cancro

16

Uno studio recente ha scoperto un pericolo significativo nella crescente tendenza all’uso dell’intelligenza artificiale per la consulenza medica: i chatbot basati sull’intelligenza artificiale forniscono spesso informazioni “problematiche” riguardanti i trattamenti contro il cancro, spesso suggerendo alternative non provate alla chemioterapia salvavita.

Mentre sempre più persone si rivolgono all’intelligenza artificiale per ottenere risposte sanitarie rapide, i ricercatori avvertono che questi strumenti potrebbero legittimare una pericolosa disinformazione trattando i fatti scientifici e i miti di Internet con lo stesso peso.

Lo studio: testare i limiti della precisione dell’intelligenza artificiale

I ricercatori del Lundquist Institute for Biomedical Innovation presso l’Harbour-UCLA Medical Center hanno condotto un rigoroso “stress test” su diversi modelli di intelligenza artificiale leader, tra cui ChatGPT di OpenAI, Gemini di Google, AI di Meta, Grok di xAI e DeepSeek di High-Flyer.

Il team ha utilizzato una tecnica chiamata “straining”, ponendo domande progettate per innescare malintesi comuni, come la sicurezza della tecnologia 5G, degli steroidi anabolizzanti o di vaccini specifici. L’obiettivo era imitare il modo in cui un utente occasionale, spesso influenzato da termini di ricerca distorti, potrebbe interagire con i bot.

I risultati, pubblicati su BMJ Open, erano allarmanti:
Quasi il 50% delle risposte riguardanti i trattamenti contro il cancro sono state classificate come “problematiche” dagli esperti medici.
– Il 19,6% è stato classificato come “altamente problematico”, nel senso che era sostanzialmente errato e aperto a pericolose interpretazioni soggettive.
– Il 30% si è rivelato “piuttosto problematico”, fornendo informazioni in gran parte accurate ma incomplete.

Il problema del “falso equilibrio”.

Uno dei risultati più critici riguarda il modo in cui l’intelligenza artificiale gestisce le informazioni contrastanti. Alla richiesta di alternative alla chemioterapia, molti robot hanno inizialmente fornito la corretta esclusione di responsabilità medica, affermando che le terapie alternative potrebbero non avere supporto scientifico.

Tuttavia, i robot spesso non riuscivano a fermarsi qui. Hanno continuato a elencare agopuntura, fitoterapia e “diete antitumorali” come opzioni praticabili e, in alcuni casi, hanno persino indirizzato gli utenti verso cliniche specifiche che si oppongono attivamente alla chemioterapia convenzionale.

I ricercatori hanno identificato come causa principale un fenomeno noto come “falso equilibrio”. Invece di fornire una risposta definitiva e basata sulla scienza, i robot spesso adottano un approccio “da entrambe le parti”. Confrontando le riviste mediche sottoposte a peer review con i blog sul benessere, i thread di Reddit e i post sui social media, l’intelligenza artificiale conferisce alle affermazioni non verificate la stessa autorità della medicina consolidata.

Perché è importante: l’ascesa del “pronto soccorso basato sull’intelligenza artificiale”

Questa questione non è meramente accademica; arriva in un momento in cui l’intelligenza artificiale sta diventando una fonte primaria di informazioni sanitarie. Secondo un recente sondaggio Gallup:
– Il 25% degli adulti statunitensi ora utilizza strumenti di intelligenza artificiale per l’orientamento sanitario.
– Molti utenti scelgono l’intelligenza artificiale perché è più veloce dell’attesa per una visita dal medico o perché l’assistenza sanitaria tradizionale è diventata troppo costosa o scomoda.
– Nonostante questo utilizzo, solo un utente su tre si fida effettivamente delle risposte del software.

Le conseguenze nel mondo reale

I professionisti medici avvertono che il danno causato dalla disinformazione sull’intelligenza artificiale è duplice:
1. Danno fisico diretto: integratori non regolamentati e farmaci “alternativi” possono causare danni agli organi (come insufficienza epatica) o problemi metabolici.
2. Trattamento ritardato: il rischio maggiore è che i pazienti possano rinunciare o ritardare trattamenti convenzionali salvavita come la chemioterapia a favore di metodi non provati.

Inoltre, il costo emotivo è significativo. Il dottor Michael Foote del Memorial Sloan Kettering Cancer Center ha osservato che i chatbot possono causare “disagio inutile” fornendo previsioni estremamente imprecise, come dire a un paziente che hanno solo pochi mesi di vita quando non esiste alcuna base medica per tale affermazione.

Conclusione

Sebbene l’intelligenza artificiale offra una comodità senza precedenti, la sua tendenza a trattare la disinformazione con lo stesso peso dei fatti scientifici rappresenta un grave rischio per la sicurezza dei pazienti. Senza un maggiore controllo e una migliore educazione pubblica, l’impiego di questi strumenti potrebbe inavvertitamente accelerare la diffusione di pericolosi miti medici.