L’ascesa dei chatbot basati sull’intelligenza artificiale come ChatGPT si è inevitabilmente estesa al settore sanitario. Le persone stanno già utilizzando questi strumenti per domande mediche, spesso cercando risposte rapide ai sintomi o risultati di laboratorio quando l’aiuto professionale non è immediatamente disponibile. Ora, OpenAI ha lanciato “ChatGPT Health”, una funzionalità dedicata progettata per affrontare questa tendenza, ma non sostituisce i medici e comporta rischi significativi.
Oltre il 5% di tutte le interazioni ChatGPT in tutto il mondo riguardano ora domande relative alla salute, con oltre 40 milioni di utenti settimanali che cercano informazioni mediche. Questa richiesta ha spinto OpenAI a creare un’esperienza più mirata all’interno della sua piattaforma, ma lo strumento non è esplicitamente progettato per diagnosticare o trattare condizioni.
Cos’è ChatGPT Health?
ChatGPT Health non è un’app autonoma. Si tratta invece di una scheda specializzata all’interno dell’interfaccia ChatGPT esistente, che offre uno spazio per domande relative alla salute, analisi dei documenti e supporto del flusso di lavoro. OpenAI afferma che il sistema è stato sviluppato con il contributo di oltre 260 medici in 60 paesi in due anni, sottoposto a test rigorosi con oltre 600.000 revisioni delle risposte del modello. Il risultato è un’intelligenza artificiale più cauta e vincolata, progettata per incoraggiare la consultazione medica professionale.
Attualmente l’accesso è limitato a Stati Uniti, Canada, Australia, parti dell’Asia e America Latina. UE, Regno Unito, Cina e Russia sono esclusi a causa delle diverse normative relative ai dati sanitari. OpenAI prevede di espandere la disponibilità, anche se le tempistiche rimangono incerte.
Come funziona: dati, non magia
ChatGPT Health non rappresenta una svolta nella comprensione dell’intelligenza artificiale in medicina. Secondo Alex Kotlar di Bystro AI, la tecnologia di base rimane la stessa: “Non hanno creato un modello che improvvisamente comprenda molto meglio le cartelle cliniche. È ancora ChatGPT, semplicemente connesso alle tue cartelle cliniche.”
La chiave è il contesto. Lo strumento può integrarsi con i dati di Apple Health, risultati di laboratorio (di servizi come Function) e persino registri alimentari di MyFitnessPal e Weight Watchers. Ciò consente approfondimenti personalizzati in base alla tua cronologia, ma richiede un’autorizzazione esplicita per accedere ai tuoi dati.
OpenAI utilizza un quadro di valutazione chiamato HealthBench, applicando oltre 48.000 criteri per valutare la qualità e la sicurezza delle risposte. Questo quadro si basa su rubriche scritte da medici per valutare le prestazioni del modello in scenari sanitari simulati.
Privacy e limiti: un prodotto di consumo, non conforme a HIPAA
ChatGPT Health funziona come un prodotto di consumo, il che significa che non rientra nelle stesse rigide normative dei sistemi sanitari clinici. OpenAI afferma esplicitamente che l’HIPAA (Health Insurance Portability and Accountability Act) non si applica. Per l’uso clinico regolamentato, OpenAI offre un servizio separato “ChatGPT for Healthcare” con conformità HIPAA.
OpenAI enfatizza misure di sicurezza aggiuntive come la crittografia, ma gli esperti mettono in guardia contro l’eccessiva sicurezza. “La crittografia a riposo non significa che l’azienda stessa non possa accedere ai dati”, avverte Kotlar. Gli utenti possono disconnettere app, rimuovere record ed eliminare ricordi specifici della salute, ma i rischi rimangono inerenti all’archiviazione di informazioni sensibili online.
Il vero pericolo: allucinazioni e disinformazione
La preoccupazione più significativa con ChatGPT Health non è la privacy, ma l’accuratezza. I modelli di intelligenza artificiale, compreso questo, sono soggetti ad “allucinazioni”, fornendo con sicurezza informazioni errate. Nel settore sanitario, ciò può avere gravi conseguenze.
L’ECRI, un’organizzazione no-profit per la sicurezza dei pazienti, ha già identificato i chatbot con intelligenza artificiale come il principale standard tecnologico sanitario per il 2026, evidenziandone il potenziale danno. Anche OpenAI ammette che i modelli più vecchi avevano tassi di allucinazioni più elevati, sebbene affermino che GPT-5 ha ridotto significativamente questi errori.
“Il pericolo più grande per i consumatori è che, a meno che non abbiano una formazione medica, avranno difficoltà a valutare quando sta dicendo qualcosa di giusto e quando sta dicendo qualcosa di sbagliato”, spiega Kotlar.
Il risultato finale
ChatGPT Health è uno strumento per integrare, non sostituire, l’assistenza medica professionale. Può aiutare a tradurre informazioni complesse, organizzare domande per appuntamenti o fornire approfondimenti generali sul benessere. Tuttavia, è fondamentale verificare qualsiasi informazione con fonti attendibili ed evitare l’autodiagnosi. Il valore dello strumento risiede nel suo potenziale di migliorare l’accesso alle informazioni, ma è necessario comprenderne i limiti e i rischi. L’ascesa dell’intelligenza artificiale nel settore sanitario è inevitabile, ma un uso responsabile richiede cautela e una chiara consapevolezza dei suoi limiti.















































