NEW YORK* – Penggunaan kecerdasan buatan (AI) dalam dunia medis digadang-gadang sebagai revolusi yang akan meningkatkan keselamatan pasien. Namun, sebuah studi terbaru dari **Mount Sinai yang diterbitkan di jurnal bergengsi *The Lancet Digital Health (2026) mengungkapkan fakta yang mengejutkan: model bahasa besar (LLM) yang digunakan dalam AI medis ternyata rentan “berbohong” dan menyebarkan misinformasi kesehatan yang berbahaya.
Para peneliti menemukan bahwa ketika model AI dilatih atau diberi input yang mengandung informasi palsu—baik dari catatan klinis yang tidak akurat maupun mitos kesehatan dari media sosial—model tersebut seringkali gagal membedakan fakta dan fiksi. Alih-alih mengoreksi kesalahan, AI justru memvalidasi dan mengulangi informasi sesat tersebut seolah-olah itu adalah fakta medis yang teruji.
“Halusinasi” yang Berisiko Nyawa
Fenomena ini, yang sering disebut sebagai “halusinasi AI”, menjadi sangat kritis ketika diterapkan dalam konteks kesehatan. Dr. Eyal Klang, salah satu penulis utama studi tersebut, memperingatkan bahwa tanpa safeguards (pengaman) yang ketat, integrasi AI ke dalam sistem rumah sakit bisa berisiko fatal.
“Tujuan kami adalah melihat apakah chatbot medis akan ‘termakan’ oleh informasi palsu jika disisipkan dalam pertanyaan medis, dan jawabannya adalah ya,” ujar tim peneliti.
Dalam pengujian, para ilmuwan memaparkan berbagai model LLM populer terhadap tiga jenis data yang telah disusupi:
1. Ringkasan Pulang Rumah Sakit (Discharge Summaries): Data pasien asli yang disisipi satu rekomendasi medis palsu.
2. Mitos Kesehatan Online: Klaim kesehatan yang tidak berdasar yang diambil dari forum seperti Reddit.
3. Skenario Klinis Valid: Sebagai kontrol.
Hasilnya mengkhawatirkan: beberapa model AI tidak hanya gagal mendeteksi kebohongan tersebut, tetapi juga merekomendasikan tindakan medis berdasarkan informasi palsu itu. Ini menunjukkan bahwa kemampuan “penalaran” AI saat ini masih sangat bergantung pada kualitas data inputnya, dan belum memiliki mekanisme verifikasi fakta internal yang memadai layaknya seorang dokter manusia.
Mengapa Ini Terjadi?
Model bahasa besar bekerja dengan memprediksi kata berikutnya dalam sebuah kalimat berdasarkan pola statistik dari miliaran teks yang mereka pelajari. Mereka tidak memiliki pemahaman intrinsik tentang “kebenaran” atau “etika medis”. Jika data latihannya mengandung bias atau kesalahan yang tidak ditandai, model akan mereproduksinya.
Masalah menjadi pelik karena data kesehatan di dunia nyata seringkali “kotor”. Catatan dokter mungkin mengandung kesalahan ketik, singkatan ambigu, atau asumsi yang salah. Media sosial penuh dengan testimoni pasien yang belum tentu akurat secara medis. Jika AI menyerap semua ini tanpa filter, ia menjadi “dokter” yang berpengetahuan luas tapi mudah ditipu.
Solusi dan Masa Depan
Studi ini bukan bertujuan untuk menghentikan adopsi AI di bidang kesehatan, melainkan sebagai panggilan bangun (wake-up call) untuk memperketat standar keamanannya.
Arthur M. Fishberg, Chief AI Officer di Mount Sinai Health System, menekankan perlunya “Benchmarking Misinformasi”. Sebelum sebuah model AI diizinkan berinteraksi dengan pasien atau dokter, ia harus lolos uji ketahanan terhadap ribuan skenario hoaks dan mitos kesehatan.
Selain itu, diperlukan pendekatan human-in-the-loop, di mana keputusan AI selalu diverifikasi oleh tenaga medis profesional, setidaknya sampai teknologi verifikasi fakta otomatis menjadi jauh lebih matang.
Apa yang Harus Kita Lakukan?
Bagi masyarakat umum, temuan ini menjadi pengingat penting: Jangan telan mentah-mentah saran medis dari AI atau chatbot online. Selalu konsultasikan diagnosis dan rencana pengobatan dengan profesional kesehatan berlisensi. AI adalah alat bantu yang hebat, tapi ia belum bisa menggantikan penilaian kritis seorang dokter manusia.
Revolusi kesehatan digital sedang berlangsung, tapi kita harus memastikan fondasinya dibangun di atas kebenaran, bukan halusinasi mesin.
*
Sumber Referensi:
* Can Medical AI Lie? Large Study Maps How LLMs Handle Health Misinformation – Mount Sinai
* Mapping LLM Susceptibility to Medical Misinformation – The Lancet Digital Health
* World Health Organization – Ethics and Governance of AI for Health
* Artificial Intelligence in Healthcare – Wikipedia

