De valkuil van digitale verkeerde informatie: hoe AI-chatbots kankerpatiënten kunnen misleiden

19

Een recente studie heeft een aanzienlijk gevaar blootgelegd in de groeiende trend van het gebruik van kunstmatige intelligentie voor medisch advies: AI-chatbots verstrekken vaak ‘problematische’ informatie over kankerbehandelingen, waarbij ze vaak onbewezen alternatieven voor levensreddende chemotherapie suggereren.

Nu steeds meer mensen zich tot AI wenden voor snelle antwoorden op de gezondheidszorg, waarschuwen onderzoekers dat deze tools mogelijk gevaarlijke desinformatie legitimeren door wetenschappelijke feiten en internetmythen met evenveel gewicht te behandelen.

Het onderzoek: de grenzen van AI-nauwkeurigheid testen

Onderzoekers van het Lundquist Institute for Biomedical Innovation van het Harbor-UCLA Medical Center voerden een rigoureuze ‘stresstest’ uit op verschillende toonaangevende AI-modellen, waaronder OpenAI’s ChatGPT, Google’s Gemini, Meta’s AI, xAI’s Grok en High-Flyer’s DeepSeek.

Het team gebruikte een techniek die ‘strainen’ wordt genoemd, waarbij vragen werden gesteld die bedoeld waren om algemene misvattingen te veroorzaken, zoals de veiligheid van 5G-technologie, anabole steroïden of specifieke vaccins. Het doel was om na te bootsen hoe een informele gebruiker, vaak beïnvloed door bevooroordeelde zoektermen, met de bots zou kunnen communiceren.

De resultaten, gepubliceerd in BMJ Open, waren alarmerend:
Bijna 50% van de reacties met betrekking tot kankerbehandelingen werd door medische experts als “problematisch” beoordeeld.
19,6% werd geclassificeerd als “zeer problematisch”, wat betekent dat ze substantieel onjuist waren en open stonden voor gevaarlijke subjectieve interpretaties.
30% was “enigszins problematisch” en leverde informatie die grotendeels accuraat maar onvolledig was.

Het “valse evenwicht”-probleem

Een van de meest kritische bevindingen betreft de manier waarop AI omgaat met tegenstrijdige informatie. Toen hen werd gevraagd naar alternatieven voor chemotherapie, gaven veel bots aanvankelijk de juiste medische disclaimer, waarbij ze stelden dat alternatieve therapieën mogelijk geen wetenschappelijke ondersteuning hebben.

Maar daar stopten de bots vaak niet. Vervolgens noemden ze acupunctuur, kruidengeneeskunde en “kankerbestrijdende diëten” als haalbare opties, en in sommige gevallen wezen ze gebruikers zelfs op specifieke klinieken die zich actief verzetten tegen conventionele chemotherapie.

De onderzoekers identificeerden een fenomeen dat bekend staat als “false balance” als de oorzaak. In plaats van een definitief, wetenschappelijk onderbouwd antwoord te geven, kiezen de bots vaak voor een ‘beide kanten’-benadering. Door peer-reviewed medische tijdschriften af ​​te wegen tegen welzijnsblogs, Reddit-threads en posts op sociale media, geeft de AI niet-geverifieerde claims dezelfde autoriteit als de gevestigde geneeskunde.

Waarom dit ertoe doet: de opkomst van “AI EHBO”

Deze kwestie is niet louter academisch; het komt op een moment dat AI een primaire bron van gezondheidsinformatie aan het worden is. Volgens een recente Gallup-enquête:
25% van de Amerikaanse volwassenen gebruikt nu AI-tools voor begeleiding in de gezondheidszorg.
– Veel gebruikers kiezen voor AI omdat het sneller is dan wachten op een doktersafspraak of omdat traditionele gezondheidszorg te duur of lastig is geworden.
– Ondanks dit gebruik vertrouwt slechts één op de drie gebruikers de antwoorden van de software.

De gevolgen voor de echte wereld

Medische professionals waarschuwen dat de schade veroorzaakt door desinformatie over AI tweeledig is:
1. Directe lichamelijke schade: Niet-gereguleerde supplementen en ‘alternatieve’ medicijnen kunnen orgaanschade (zoals leverfalen) of stofwisselingsproblemen veroorzaken.
2. Uitgestelde behandeling: Het grootste risico is dat patiënten conventionele, levensreddende behandelingen zoals chemotherapie achterwege laten of uitstellen ten gunste van onbewezen methoden.

Bovendien is de emotionele tol aanzienlijk. Dr. Michael Foote van het Memorial Sloan Kettering Cancer Center merkte op dat chatbots ‘onnodig leed’ kunnen veroorzaken door uiterst onnauwkeurige prognoses te geven, zoals een patiënt vertellen dat hij nog maar enkele maanden te leven heeft terwijl er geen medische basis is voor een dergelijke bewering.

Conclusie

Hoewel AI ongekend gemak biedt, vormt de neiging ervan om verkeerde informatie met hetzelfde gewicht te behandelen als wetenschappelijke feiten een ernstig risico voor de patiëntveiligheid. Zonder meer toezicht en beter openbaar onderwijs kan de inzet van deze instrumenten onbedoeld de verspreiding van gevaarlijke medische mythen versnellen.