El auge de los chatbots de IA como ChatGPT se ha extendido inevitablemente al sector sanitario. Las personas ya están utilizando estas herramientas para preguntas médicas, y a menudo buscan respuestas rápidas a los síntomas o resultados de laboratorio cuando no hay ayuda profesional disponible de inmediato. Ahora, OpenAI ha lanzado “ChatGPT Health”, una función dedicada diseñada para navegar esta tendencia, pero no reemplaza a los médicos y conlleva riesgos importantes.
Más del 5% de todas las interacciones ChatGPT en todo el mundo ahora implican consultas relacionadas con la salud, con más de 40 millones de usuarios semanales que buscan información médica. Esta demanda llevó a OpenAI a crear una experiencia más enfocada dentro de su plataforma, pero la herramienta no está explícitamente diseñada para diagnosticar o tratar condiciones.
¿Qué es ChatGPT Salud?
ChatGPT Health no es una aplicación independiente. En cambio, es una pestaña especializada dentro de la interfaz ChatGPT existente, que ofrece un espacio para preguntas relacionadas con la salud, análisis de documentos y soporte para el flujo de trabajo. OpenAI afirma que el sistema se desarrolló con el aporte de más de 260 médicos de 60 países durante dos años, y se sometió a pruebas rigurosas con más de 600.000 revisiones de respuestas de modelos. El resultado es una IA más cautelosa y restringida, diseñada para fomentar la consulta médica profesional.
Actualmente, el acceso está limitado a EE. UU., Canadá, Australia, partes de Asia y América Latina. La UE, el Reino Unido, China y Rusia están excluidos debido a las diferentes regulaciones en torno a los datos de salud. OpenAI planea ampliar la disponibilidad, aunque los plazos siguen siendo inciertos.
Cómo funciona: datos, no magia
ChatGPT Health no representa un gran avance en la comprensión de la medicina por parte de la IA. Según Alex Kotlar de Bystro AI, la tecnología central sigue siendo la misma: “No han creado un modelo que de repente comprenda mucho mejor los registros médicos. Sigue siendo ChatGPT, simplemente conectado a sus registros médicos”.
La clave es contexto. La herramienta puede integrarse con datos de Apple Health, resultados de laboratorio (de servicios como Function) e incluso registros de alimentos de MyFitnessPal y Weight Watchers. Esto permite obtener información personalizada basada en su historial, pero requiere un permiso explícito para acceder a sus datos.
OpenAI utiliza un marco de evaluación llamado HealthBench, que aplica más de 48.000 criterios para evaluar la calidad y seguridad de las respuestas. Este marco se basa en rúbricas escritas por médicos para calificar el desempeño del modelo en escenarios de salud simulados.
Privacidad y límites: un producto de consumo que no cumple con HIPAA
ChatGPT Health opera como un producto de consumo, lo que significa que no está sujeto a las mismas regulaciones estrictas que los sistemas de atención médica clínica. OpenAI establece explícitamente que HIPAA (Ley de Responsabilidad y Portabilidad del Seguro Médico) no se aplica. Para uso clínico regulado, OpenAI ofrece un servicio independiente “ChatGPT para atención médica” que cumple con HIPAA.
OpenAI enfatiza medidas de seguridad adicionales como el cifrado, pero los expertos advierten contra el exceso de confianza. “Que estén cifrados en reposo no significa que la propia empresa no pueda acceder a los datos”, advierte Kotlar. Los usuarios pueden desconectar aplicaciones, eliminar registros y eliminar recuerdos específicos de salud, pero los riesgos siguen siendo inherentes al almacenamiento de información confidencial en línea.
El verdadero peligro: alucinaciones y desinformación
La preocupación más importante con ChatGPT Health no es la privacidad, sino la precisión. Los modelos de IA, incluido este, son propensos a sufrir “alucinaciones” y proporcionan con seguridad información incorrecta. En el ámbito sanitario, esto puede tener graves consecuencias.
ECRI, una organización sin fines de lucro para la seguridad del paciente, ya ha identificado los chatbots de IA como el principal estándar de tecnología sanitaria para 2026, destacando el potencial de daño. Incluso OpenAI admite que los modelos más antiguos tenían tasas de alucinaciones más altas, aunque afirman que GPT-5 ha reducido estos errores significativamente.
“El mayor peligro para los consumidores es que, a menos que tengan antecedentes médicos, les resultará difícil evaluar cuándo dice algo bien y cuándo dice algo mal”, explica Kotlar.
El resultado final
ChatGPT Health es una herramienta para complementar, no reemplazar, la atención médica profesional. Puede ayudar a traducir información compleja, organizar preguntas para citas o proporcionar información general sobre bienestar. Sin embargo, es fundamental verificar cualquier información con fuentes confiables y evitar el autodiagnóstico. El valor de la herramienta radica en su potencial para mejorar el acceso a la información, pero se deben comprender sus limitaciones y riesgos. El auge de la IA en la atención sanitaria es inevitable, pero un uso responsable requiere precaución y una clara conciencia de sus límites.















































