Une étude récente a révélé un danger important dans la tendance croissante à utiliser l’intelligence artificielle pour des conseils médicaux : les chatbots IA fournissent fréquemment des informations « problématiques » concernant les traitements contre le cancer, suggérant souvent des alternatives non éprouvées à la chimiothérapie salvatrice.
Alors que de plus en plus de personnes se tournent vers l’IA pour obtenir des réponses rapides en matière de soins de santé, les chercheurs préviennent que ces outils pourraient légitimer une désinformation dangereuse en traitant les faits scientifiques et les mythes sur Internet avec le même poids.
L’étude : tester les limites de la précision de l’IA
Des chercheurs du Lundquist Institute for Biomedical Innovation du Harbor-UCLA Medical Center ont mené un « test de résistance » rigoureux sur plusieurs modèles d’IA de premier plan, notamment ChatGPT d’OpenAI, Gemini de Google, l’IA de Meta, Grok de xAI et DeepSeek de High-Flyer.
L’équipe a utilisé une technique appelée « effort », posant des questions conçues pour déclencher des idées fausses courantes, telles que la sécurité de la technologie 5G, des stéroïdes anabolisants ou des vaccins spécifiques. L’objectif était d’imiter la façon dont un utilisateur occasionnel, souvent influencé par des termes de recherche biaisés, pourrait interagir avec les robots.
Les résultats, publiés dans BMJ Open, étaient alarmants :
– Près de 50 % des réponses concernant les traitements contre le cancer ont été jugées « problématiques » par les experts médicaux.
– 19,6 % ont été classés comme “hautement problématiques”, ce qui signifie qu’ils étaient substantiellement incorrects et ouverts à une interprétation subjective dangereuse.
– 30 % étaient « quelque peu problématiques », fournissant des informations largement exactes mais incomplètes.
Le problème du « faux équilibre »
L’une des découvertes les plus critiques concerne la manière dont l’IA gère les informations contradictoires. Lorsqu’on leur a demandé des alternatives à la chimiothérapie, de nombreux robots ont initialement fourni la clause de non-responsabilité médicale correcte, indiquant que les thérapies alternatives pourraient manquer de fondement scientifique.
Cependant, les robots ne parvenaient souvent pas à s’arrêter là. Ils ont ensuite énuméré l’acupuncture, la phytothérapie et les « régimes anti-cancer » comme options viables et, dans certains cas, ont même orienté les utilisateurs vers des cliniques spécifiques qui s’opposent activement à la chimiothérapie conventionnelle.
Les chercheurs ont identifié un phénomène connu sous le nom de « faux équilibre » comme cause profonde. Au lieu de fournir une réponse définitive et scientifique, les robots adoptent souvent une approche « des deux côtés ». En comparant les revues médicales évaluées par des pairs aux blogs sur le bien-être, aux fils de discussion Reddit et aux publications sur les réseaux sociaux, l’IA donne aux allégations non vérifiées la même autorité que la médecine établie.
Pourquoi c’est important : l’essor des « premiers secours IA »
Cette question n’est pas seulement académique ; cela arrive à un moment où l’IA devient la principale source d’informations sur la santé. Selon un récent sondage Gallup :
– 25 % des adultes américains utilisent désormais des outils d’IA pour obtenir des conseils en matière de soins de santé.
– De nombreux utilisateurs choisissent l’IA parce qu’elle est plus rapide que d’attendre un rendez-vous chez le médecin ou parce que les soins de santé traditionnels sont devenus trop chers ou peu pratiques.
– Malgré cette utilisation, seul un utilisateur sur trois fait réellement confiance aux réponses du logiciel.
Les conséquences du monde réel
Les professionnels de la santé préviennent que les dommages causés par la désinformation sur l’IA sont doubles :
1. Méfait physique direct : Les suppléments non réglementés et les médicaments « alternatifs » peuvent causer des dommages aux organes (comme une insuffisance hépatique) ou des problèmes métaboliques.
2. Traitement retardé : Le plus grand risque est que les patients abandonnent ou retardent les traitements conventionnels qui sauvent des vies, comme la chimiothérapie, au profit de méthodes non éprouvées.
De plus, le bilan émotionnel est important. Le Dr Michael Foote du Memorial Sloan Kettering Cancer Center a noté que les chatbots peuvent causer une « détresse inutile » en fournissant des pronostics extrêmement inexacts, comme dire à un patient qu’il ne lui reste que quelques mois à vivre alors qu’il n’y a aucune base médicale pour une telle affirmation.
Conclusion
Bien que l’IA offre une commodité sans précédent, sa tendance à traiter la désinformation avec le même poids que les faits scientifiques présente un risque grave pour la sécurité des patients. Sans une surveillance accrue et une meilleure éducation du public, le déploiement de ces outils pourrait par inadvertance accélérer la propagation de mythes médicaux dangereux.
