Sebuah penelitian baru-baru ini mengungkap bahaya yang signifikan dalam tren penggunaan kecerdasan buatan untuk nasihat medis: chatbot AI sering kali memberikan informasi “bermasalah” mengenai pengobatan kanker, sering kali menyarankan alternatif yang belum terbukti selain kemoterapi yang dapat menyelamatkan nyawa.
Ketika semakin banyak orang beralih ke AI untuk mendapatkan jawaban layanan kesehatan yang cepat, para peneliti memperingatkan bahwa alat-alat ini mungkin melegitimasi misinformasi yang berbahaya dengan memperlakukan fakta ilmiah dan mitos internet dengan bobot yang sama.
Studi: Menguji Batas Akurasi AI
Para peneliti dari Lundquist Institute for Biomedical Innovation di Harbor-UCLA Medical Center melakukan “uji stres” yang ketat pada beberapa model AI terkemuka, termasuk ChatGPT OpenAI, Gemini Google, AI Meta, Grok xAI, dan DeepSeek High-Flyer.
Tim tersebut menggunakan teknik yang disebut “menekan”, mengajukan pertanyaan yang dirancang untuk memicu kesalahpahaman umum—seperti keamanan teknologi 5G, steroid anabolik, atau vaksin tertentu. Tujuannya adalah untuk meniru bagaimana pengguna biasa, yang sering kali dipengaruhi oleh istilah penelusuran yang bias, dapat berinteraksi dengan bot.
Hasilnya, yang dipublikasikan di BMJ Open, sangat mengkhawatirkan:
– Hampir 50% tanggapan mengenai pengobatan kanker dinilai “bermasalah” oleh para ahli medis.
– 19,6% diklasifikasikan sebagai “sangat bermasalah”, yang berarti bahwa informasi tersebut secara substansial tidak benar dan dapat menimbulkan penafsiran subjektif yang berbahaya.
– 30% “agak bermasalah”, memberikan informasi yang sebagian besar akurat namun tidak lengkap.
Masalah “Saldo Palsu”.
Salah satu temuan paling penting adalah bagaimana AI menangani informasi yang bertentangan. Ketika ditanya tentang alternatif selain kemoterapi, banyak bot yang pada awalnya memberikan penafian medis yang benar—menyatakan bahwa terapi alternatif mungkin kurang memiliki dukungan ilmiah.
Namun, bot seringkali gagal berhenti di situ. Mereka melanjutkan dengan mencantumkan akupunktur, pengobatan herbal, dan “diet pelawan kanker” sebagai pilihan yang layak, dan dalam beberapa kasus, bahkan mengarahkan pengguna ke klinik tertentu yang secara aktif menentang kemoterapi konvensional.
Para peneliti mengidentifikasi fenomena yang dikenal sebagai “keseimbangan palsu” sebagai akar permasalahannya. Alih-alih memberikan jawaban yang pasti dan berdasarkan sains, bot sering kali mengadopsi pendekatan “kedua sisi”. Dengan membandingkan jurnal medis yang ditinjau oleh rekan sejawat dengan blog kesehatan, thread Reddit, dan postingan media sosial, AI memberikan klaim yang belum diverifikasi otoritas yang sama dengan pengobatan yang sudah ada.
Mengapa Ini Penting: Munculnya “AI First Aid”
Persoalan ini bukan hanya bersifat akademis; hal ini terjadi pada saat AI menjadi sumber utama informasi kesehatan. Menurut jajak pendapat Gallup baru-baru ini:
– 25% orang dewasa di AS kini menggunakan alat AI untuk panduan perawatan kesehatan.
– Banyak pengguna memilih AI karena lebih cepat dibandingkan menunggu janji dengan dokter atau karena layanan kesehatan tradisional menjadi terlalu mahal atau tidak nyaman.
– Meskipun penggunaan ini, hanya satu dari tiga pengguna yang benar-benar mempercayai jawaban perangkat lunak.
Konsekuensi di Dunia Nyata
Para profesional medis memperingatkan bahwa kerugian yang disebabkan oleh misinformasi AI ada dua:
1. Kerusakan Fisik Langsung: Suplemen yang tidak diatur dan obat-obatan “alternatif” dapat menyebabkan kerusakan organ (seperti gagal hati) atau masalah metabolisme.
2. Pengobatan yang Tertunda: Risiko terbesarnya adalah pasien mengabaikan atau menunda pengobatan konvensional yang dapat menyelamatkan nyawa seperti kemoterapi dan memilih metode yang belum terbukti.
Selain itu, dampak emosionalnya juga signifikan. Michael Foote dari Memorial Sloan Kettering Cancer Center mencatat bahwa chatbots dapat menyebabkan “ketegangan yang tidak perlu” dengan memberikan prognosis yang sangat tidak akurat, seperti memberi tahu pasien bahwa mereka hanya memiliki waktu beberapa bulan untuk hidup padahal tidak ada dasar medis untuk klaim tersebut.
Kesimpulan
Meskipun AI menawarkan kemudahan yang belum pernah ada sebelumnya, kecenderungan AI untuk memperlakukan misinformasi dengan bobot yang sama dengan fakta ilmiah menimbulkan risiko besar terhadap keselamatan pasien. Tanpa peningkatan pengawasan dan pendidikan masyarakat yang lebih baik, penerapan alat-alat ini secara tidak sengaja dapat mempercepat penyebaran mitos medis yang berbahaya.
















































