ChatGPT Health: uma nova ferramenta para informações médicas, com ressalvas

23

A ascensão de chatbots de IA como o ChatGPT estendeu-se inevitavelmente à saúde. As pessoas já estão usando essas ferramentas para perguntas médicas, muitas vezes buscando respostas rápidas para sintomas ou resultados laboratoriais quando a ajuda profissional não está imediatamente disponível. Agora, a OpenAI lançou o “ChatGPT Health”, um recurso dedicado projetado para navegar nessa tendência – mas não substitui os médicos e apresenta riscos significativos.

Mais de 5% de todas as interações do ChatGPT em todo o mundo envolvem agora consultas relacionadas à saúde, com mais de 40 milhões de usuários semanais buscando informações médicas. Essa demanda levou a OpenAI a criar uma experiência mais focada em sua plataforma, mas a ferramenta não foi explicitamente projetada para diagnosticar ou tratar doenças.

O que é ChatGPT Saúde?

ChatGPT Health não é um aplicativo independente. Em vez disso, é uma guia especializada dentro da interface existente do ChatGPT, oferecendo um espaço para perguntas relacionadas à saúde, análise de documentos e suporte ao fluxo de trabalho. A OpenAI afirma que o sistema foi desenvolvido com a contribuição de mais de 260 médicos de 60 países ao longo de dois anos, passando por testes rigorosos com mais de 600.000 avaliações de respostas de modelos. O resultado é uma IA mais cautelosa e restrita, projetada para incentivar consultas médicas profissionais.

Atualmente, o acesso é limitado aos EUA, Canadá, Austrália, partes da Ásia e América Latina. A UE, o Reino Unido, a China e a Rússia estão excluídos devido a diferentes regulamentações em torno dos dados de saúde. A OpenAI planeja expandir a disponibilidade, embora os prazos permaneçam incertos.

Como funciona: dados, não mágica

ChatGPT Health não representa um avanço na compreensão da medicina pela IA. De acordo com Alex Kotlar, da Bystro AI, a tecnologia central permanece a mesma: “Eles não criaram um modelo que de repente entenda muito melhor os registros médicos. Ainda é o ChatGPT, apenas conectado aos seus registros médicos.”

A chave é contexto. A ferramenta pode ser integrada com dados do Apple Health, resultados de laboratório (de serviços como Function) e até mesmo registros alimentares do MyFitnessPal e Weight Watchers. Isso permite insights personalizados com base no seu histórico, mas requer permissão explícita para acessar seus dados.

OpenAI utiliza uma estrutura de avaliação chamada HealthBench, aplicando mais de 48.000 critérios para avaliar a qualidade e segurança das respostas. Esta estrutura depende de rubricas escritas por médicos para avaliar o desempenho do modelo em cenários de saúde simulados.

Privacidade e limites: um produto de consumo, não compatível com HIPAA

ChatGPT Health opera como um produto de consumo, o que significa que não se enquadra nas mesmas regulamentações rígidas dos sistemas clínicos de saúde. A OpenAI declara explicitamente que a HIPAA (Lei de Responsabilidade e Portabilidade de Seguros de Saúde) não se aplica. Para uso clínico regulamentado, a OpenAI oferece um serviço separado “ChatGPT for Healthcare” em conformidade com HIPAA.

A OpenAI enfatiza medidas de segurança adicionais, como criptografia, mas os especialistas alertam contra o excesso de confiança. “Criptografado em repouso não significa que a própria empresa não possa acessar os dados”, alerta Kotlar. Os usuários podem desconectar aplicativos, remover registros e excluir memórias específicas de saúde, mas os riscos permanecem inerentes ao armazenamento de informações confidenciais online.

O verdadeiro perigo: alucinações e desinformação

A preocupação mais significativa com ChatGPT Health não é a privacidade, mas a precisão. Os modelos de IA, incluindo este, são propensos a “alucinações” – fornecendo informações incorretas com segurança. Na área da saúde, isso pode ter consequências graves.

A ECRI, uma organização sem fins lucrativos de segurança do paciente, já identificou os chatbots de IA como o principal padrão de tecnologia de saúde para 2026, destacando o potencial de danos. Até a OpenAI admite que os modelos mais antigos tinham taxas de alucinação mais altas, embora afirmem que o GPT-5 reduziu significativamente esses erros.

“O maior perigo para os consumidores é que, a menos que tenham formação médica, terão dificuldade em avaliar quando está a dizer algo certo e quando está a dizer algo errado”, explica Kotlar.

O resultado final

ChatGPT Health é uma ferramenta para complementar, e não substituir, cuidados médicos profissionais. Ele pode ajudar a traduzir informações complexas, organizar perguntas para consultas ou fornecer informações gerais sobre bem-estar. No entanto, é fundamental verificar qualquer informação com fontes confiáveis ​​e evitar o autodiagnóstico. O valor da ferramenta reside no seu potencial para melhorar o acesso à informação, mas as suas limitações e riscos devem ser compreendidos. A ascensão da IA ​​nos cuidados de saúde é inevitável, mas a utilização responsável requer cautela e uma consciência clara dos seus limites.