Um estudo recente descobriu um perigo significativo na tendência crescente de utilização de inteligência artificial para aconselhamento médico: os chatbots de IA fornecem frequentemente informações “problemáticas” sobre tratamentos contra o cancro, muitas vezes sugerindo alternativas não comprovadas à quimioterapia que salva vidas.
À medida que mais pessoas recorrem à IA para obter respostas rápidas em matéria de cuidados de saúde, os investigadores alertam que estas ferramentas podem estar a legitimar a desinformação perigosa, ao tratarem os factos científicos e os mitos da Internet com igual peso.
O estudo: testando os limites da precisão da IA
Pesquisadores do Lundquist Institute for Biomedical Innovation do Harbor-UCLA Medical Center conduziram um rigoroso “teste de estresse” em vários modelos líderes de IA, incluindo ChatGPT da OpenAI, Gemini do Google, IA da Meta, Grok da xAI e DeepSeek da High-Flyer.
A equipe usou uma técnica chamada “esforço”, colocando questões destinadas a desencadear equívocos comuns – como a segurança da tecnologia 5G, esteróides anabolizantes ou vacinas específicas. O objetivo era imitar como um usuário casual, muitas vezes influenciado por termos de pesquisa tendenciosos, poderia interagir com os bots.
Os resultados, publicados no BMJ Open, foram alarmantes:
– Quase 50% das respostas relativas aos tratamentos contra o câncer foram classificadas como “problemáticas” por especialistas médicos.
– 19,6% foram classificados como “altamente problemáticos”, o que significa que eram substancialmente incorretos e abertos a interpretações subjetivas perigosas.
– 30% foram “um tanto problemáticos”, fornecendo informações bastante precisas, mas incompletas.
O problema do “falso equilíbrio”
Uma das descobertas mais críticas envolve como a IA lida com informações conflitantes. Quando questionados sobre alternativas à quimioterapia, muitos bots forneceram inicialmente a isenção de responsabilidade médica correta – afirmando que as terapias alternativas podem carecer de respaldo científico.
No entanto, os bots muitas vezes não conseguiam parar por aí. Eles listaram acupuntura, fitoterapia e “dietas de combate ao câncer” como opções viáveis e, em alguns casos, até direcionaram os usuários para clínicas específicas que se opõem ativamente à quimioterapia convencional.
Os pesquisadores identificaram um fenômeno conhecido como “falso equilíbrio” como a causa raiz. Em vez de fornecer uma resposta definitiva e baseada na ciência, os bots muitas vezes adotam uma abordagem de “ambos os lados”. Ao comparar revistas médicas revisadas por pares com blogs de bem-estar, tópicos do Reddit e postagens em mídias sociais, a IA confere às alegações não verificadas a mesma autoridade que a medicina estabelecida.
Por que isso é importante: a ascensão dos “primeiros socorros de IA”
Esta questão não é meramente académica; chega num momento em que a IA se está a tornar uma fonte primária de informação sobre saúde. De acordo com uma pesquisa recente da Gallup:
– 25% dos adultos nos EUA agora usam ferramentas de IA para orientação em saúde.
– Muitos usuários escolhem a IA porque é mais rápida do que esperar por uma consulta médica ou porque os cuidados de saúde tradicionais se tornaram muito caros ou inconvenientes.
– Apesar desse uso, apenas um em cada três usuários realmente confia nas respostas do software.
As consequências do mundo real
Profissionais médicos alertam que os danos causados pela desinformação da IA são duplos:
1. Danos físicos diretos: Suplementos não regulamentados e medicamentos “alternativos” podem causar danos a órgãos (como insuficiência hepática) ou problemas metabólicos.
2. Tratamento Atrasado: O maior risco é que os pacientes possam renunciar ou adiar tratamentos convencionais que salvam vidas, como a quimioterapia, em favor de métodos não comprovados.
Além disso, o custo emocional é significativo. Michael Foote, do Memorial Sloan Kettering Cancer Center, observou que os chatbots podem causar “sofrimento desnecessário”, fornecendo prognósticos extremamente imprecisos, como dizer a um paciente que ele tem apenas alguns meses de vida quando não há base médica para tal afirmação.
Conclusão
Embora a IA ofereça uma conveniência sem precedentes, a sua tendência para tratar a desinformação com o mesmo peso que os factos científicos representa um risco grave para a segurança dos pacientes. Sem maior supervisão e melhor educação pública, a utilização destas ferramentas pode acelerar inadvertidamente a propagação de mitos médicos perigosos.
