La trampa de la desinformación digital: cómo los chatbots de IA pueden engañar a los pacientes con cáncer

12

Un estudio reciente ha descubierto un peligro importante en la creciente tendencia de utilizar inteligencia artificial para el asesoramiento médico: los chatbots de IA proporcionan con frecuencia información “problemática” sobre tratamientos contra el cáncer, sugiriendo a menudo alternativas no probadas a la quimioterapia que salva vidas.

A medida que más personas recurren a la IA en busca de respuestas rápidas sobre atención médica, los investigadores advierten que estas herramientas pueden estar legitimando información errónea peligrosa al tratar los hechos científicos y los mitos de Internet con el mismo peso.

El estudio: probando los límites de la precisión de la IA

Investigadores del Instituto Lundquist para la Innovación Biomédica del Centro Médico Harbor-UCLA realizaron una rigurosa “prueba de estrés” en varios modelos líderes de IA, incluidos ChatGPT de OpenAI, Gemini de Google, IA de Meta, Grok de xAI y DeepSeek de High-Flyer.

El equipo utilizó una técnica llamada “esfuerzo”, planteando preguntas diseñadas para desencadenar conceptos erróneos comunes, como la seguridad de la tecnología 5G, los esteroides anabólicos o vacunas específicas. El objetivo era imitar cómo un usuario ocasional, a menudo influenciado por términos de búsqueda sesgados, podría interactuar con los bots.

Los resultados, publicados en BMJ Open, fueron alarmantes:
Casi el 50% de las respuestas sobre tratamientos contra el cáncer fueron calificadas como “problemáticas” por los expertos médicos.
19,6 % fueron clasificados como “altamente problemáticos”, lo que significa que eran sustancialmente incorrectos y estaban abiertos a interpretaciones subjetivas peligrosas.
30% fueron “algo problemáticos”, ya que proporcionaron información en gran medida precisa pero incompleta.

El problema del “falso saldo”

Uno de los hallazgos más críticos tiene que ver con cómo la IA maneja la información contradictoria. Cuando se les preguntó por alternativas a la quimioterapia, muchos robots inicialmente proporcionaron el descargo de responsabilidad médico correcto: afirmaban que las terapias alternativas pueden carecer de respaldo científico.

Sin embargo, los robots a menudo no se detenían ahí. Procedieron a enumerar la acupuntura, las hierbas medicinales y las “dietas para combatir el cáncer” como opciones viables y, en algunos casos, incluso indicaron a los usuarios clínicas específicas que se oponen activamente a la quimioterapia convencional.

Los investigadores identificaron un fenómeno conocido como “falso equilibrio” como la causa principal. En lugar de proporcionar una respuesta definitiva y basada en la ciencia, los robots suelen adoptar un enfoque de “ambos lados”. Al comparar las revistas médicas revisadas por pares con los blogs de bienestar, los hilos de Reddit y las publicaciones en las redes sociales, la IA otorga a las afirmaciones no verificadas la misma autoridad que a la medicina establecida.

Por qué esto es importante: el auge de los “primeros auxilios con IA”

Esta cuestión no es meramente académica; Llega en un momento en el que la IA se está convirtiendo en una fuente primaria de información sanitaria. Según una encuesta reciente de Gallup:
El 25% de los adultos estadounidenses ahora utilizan herramientas de inteligencia artificial como orientación sanitaria.
– Muchos usuarios eligen la IA porque es más rápida que esperar una cita con el médico o porque la atención médica tradicional se ha vuelto demasiado costosa o inconveniente.
– A pesar de este uso, sólo uno de cada tres usuarios confía realmente en las respuestas del software.

Las consecuencias del mundo real

Los profesionales médicos advierten que el daño causado por la información errónea sobre la IA es doble:
1. Daño físico directo: Los suplementos no regulados y los medicamentos “alternativos” pueden causar daño a los órganos (como insuficiencia hepática) o problemas metabólicos.
2. Tratamiento retrasado: El mayor riesgo es que los pacientes renuncien o retrasen tratamientos convencionales que salvan vidas, como la quimioterapia, en favor de métodos no probados.

Además, el costo emocional es significativo. El Dr. Michael Foote del Memorial Sloan Kettering Cancer Center señaló que los chatbots pueden causar “angustia innecesaria” al proporcionar pronósticos tremendamente inexactos, como decirle a un paciente que sólo le quedan meses de vida cuando no hay base médica para tal afirmación.

Conclusión

Si bien la IA ofrece una comodidad sin precedentes, su tendencia a tratar la información errónea con el mismo peso que los hechos científicos plantea un grave riesgo para la seguridad del paciente. Sin una mayor supervisión y una mejor educación pública, el despliegue de estas herramientas puede acelerar inadvertidamente la propagación de peligrosos mitos médicos.