ChatGPT Health: een nieuw hulpmiddel voor medische informatie, met kanttekeningen

9

De opkomst van AI-chatbots zoals ChatGPT heeft zich onvermijdelijk uitgebreid naar de gezondheidszorg. Mensen gebruiken deze hulpmiddelen al voor medische vragen en zoeken vaak snelle antwoorden op symptomen of laboratoriumresultaten wanneer professionele hulp niet onmiddellijk beschikbaar is. Nu heeft OpenAI ‘ChatGPT Health’ gelanceerd, een speciale functie die is ontworpen om deze trend te doorbreken, maar het is geen vervanging voor artsen en brengt aanzienlijke risico’s met zich mee.

Meer dan 5% van alle ChatGPT-interacties wereldwijd betreffen nu gezondheidsgerelateerde vragen, waarbij wekelijks meer dan 40 miljoen gebruikers op zoek zijn naar medische informatie. Deze vraag heeft OpenAI ertoe aangezet om een ​​meer gerichte ervaring binnen zijn platform te creëren, maar de tool is expliciet niet ontworpen om aandoeningen te diagnosticeren of te behandelen.

Wat is ChatGPT Gezondheid?

ChatGPT Health is geen zelfstandige app. In plaats daarvan is het een gespecialiseerd tabblad binnen de bestaande ChatGPT-interface, dat ruimte biedt voor gezondheidsgerelateerde vragen, documentanalyse en workflowondersteuning. OpenAI beweert dat het systeem is ontwikkeld met input van meer dan 260 artsen uit 60 landen gedurende twee jaar, en dat het rigoureuze tests heeft ondergaan met meer dan 600.000 beoordelingen van modelreacties. Het resultaat is een voorzichtigere en beperktere AI, ontworpen om professioneel medisch advies aan te moedigen.

Momenteel is de toegang beperkt tot de VS, Canada, Australië, delen van Azië en Latijns-Amerika. De EU, het VK, China en Rusland zijn uitgesloten vanwege de uiteenlopende regelgeving rond gezondheidsgegevens. OpenAI is van plan de beschikbaarheid uit te breiden, hoewel de tijdlijnen onzeker blijven.

Hoe het werkt: data, geen magie

ChatGPT Health vertegenwoordigt geen doorbraak in het AI-begrip van de geneeskunde. Volgens Alex Kotlar van Bystro AI blijft de kerntechnologie hetzelfde: “Ze hebben geen model gecreëerd dat medische dossiers ineens veel beter begrijpt. Het is nog steeds ChatGPT, alleen maar gekoppeld aan je medische dossiers.”

De sleutel is context. De tool kan worden geïntegreerd met gegevens van Apple Health, laboratoriumresultaten (van diensten als Function) en zelfs voedsellogboeken van MyFitnessPal en Weight Watchers. Dit maakt gepersonaliseerde inzichten mogelijk op basis van uw geschiedenis, maar vereist expliciete toestemming om toegang te krijgen tot uw gegevens.

OpenAI maakt gebruik van een evaluatiekader genaamd HealthBench, waarbij meer dan 48.000 criteria worden toegepast om de kwaliteit en veiligheid van reacties te beoordelen. Dit raamwerk is gebaseerd op door artsen geschreven rubrieken om de prestaties van modellen in gesimuleerde gezondheidsscenario’s te beoordelen.

Privacy en limieten: een consumentenproduct, niet HIPAA-compatibel

ChatGPT Health opereert als een consumentenproduct, wat betekent dat het niet onder dezelfde strikte regelgeving valt als klinische gezondheidszorgsystemen. OpenAI stelt expliciet dat HIPAA (de Health Insurance Portability and Accountability Act) niet van toepassing is. Voor gereguleerd klinisch gebruik biedt OpenAI een aparte “ChatGPT for Healthcare”-service met HIPAA-compatibiliteit.

OpenAI legt de nadruk op aanvullende beveiligingsmaatregelen, zoals encryptie, maar experts waarschuwen voor overmoed. “Encrypted at rest betekent niet dat het bedrijf zelf geen toegang heeft tot de gegevens”, waarschuwt Kotlar. Gebruikers kunnen apps loskoppelen, gegevens verwijderen en gezondheidsspecifieke herinneringen verwijderen, maar de risico’s blijven inherent aan het online opslaan van gevoelige informatie.

Het echte gevaar: hallucinaties en verkeerde informatie

Het belangrijkste probleem met ChatGPT Health is niet de privacy, maar de nauwkeurigheid. AI-modellen, waaronder deze, zijn vatbaar voor ‘hallucinaties’ en geven vol vertrouwen onjuiste informatie. In de gezondheidszorg kan dit ernstige gevolgen hebben.

ECRI, een non-profitorganisatie voor patiëntveiligheid, heeft AI-chatbots al aangemerkt als de hoogste norm voor gezondheidstechnologie voor 2026, waarbij de potentiële schade wordt benadrukt. Zelfs OpenAI geeft toe dat oudere modellen hogere hallucinaties hadden, hoewel ze beweren dat GPT-5 deze fouten aanzienlijk heeft verminderd.

“Het grootste gevaar voor consumenten is dat ze, tenzij ze een medische achtergrond hebben, het moeilijk zullen hebben om te beoordelen wanneer iets goed en wanneer iets verkeerd wordt gezegd”, legt Kotlar uit.

Het eindresultaat

ChatGPT Health is een hulpmiddel om professionele medische zorg aan te vullen, niet te vervangen. Het kan helpen bij het vertalen van complexe informatie, het organiseren van vragen voor afspraken of het bieden van algemene welzijnsinzichten. Het is echter van cruciaal belang om alle informatie bij betrouwbare bronnen te verifiëren en zelfdiagnose te vermijden. De waarde van het instrument ligt in zijn potentieel om de toegang tot informatie te verbeteren, maar de beperkingen en risico’s ervan moeten worden begrepen. De opkomst van AI in de gezondheidszorg is onvermijdelijk, maar verantwoord gebruik vereist voorzichtigheid en een duidelijk besef van de grenzen ervan.