9 poin oleh darjeeling 14 hari lalu | Belum ada komentar. | Bagikan ke WhatsApp

Seorang peneliti Swedia menciptakan penyakit yang sepenuhnya fiktif, "Bixonimania", untuk menguji apakah chatbot AI akan menjelaskannya seolah-olah itu penyakit sungguhan. Hasilnya mengejutkan. Sistem AI utama seperti ChatGPT, Google Gemini, Microsoft Copilot, dan Perplexity semuanya menjelaskan penyakit palsu ini seakan nyata, dan bahkan sampai terjadi kasus makalah palsu dikutip di jurnal akademik sungguhan.


Kronologi eksperimen

Almira Osmanovic Thunström, peneliti medis dari University of Gothenburg, merancang eksperimen ini untuk memverifikasi apakah model bahasa besar (LLM) menerima informasi yang salah lalu menyajikannya seolah-olah sebagai informasi kesehatan yang dapat dipercaya.

Ia memilih nama "Bixonimania", dan menjelaskan bahwa itu sengaja dibuat terdengar konyol, karena menggabungkan nama penyakit mata dengan istilah psikiatri "mania" adalah kombinasi yang akan terasa aneh bagi profesional medis mana pun.

Pada April–Mei 2024, ia mendaftarkan dua preprint palsu di jejaring sosial akademik SciProfiles atas nama peneliti fiktif "Lazljiv Izgubljenovic", yang menggunakan foto profil hasil AI.

Di dalam makalah itu, berbagai petunjuk bahwa isinya palsu disembunyikan di banyak tempat. Pada bagian ucapan terima kasih, tercantum apresiasi kepada "laboratorium di kapal USS Enterprise", "Starfleet Academy", dan "The Lord of the Rings University", serta di isi makalah juga terdapat kalimat, "Seluruh makalah ini adalah rekaan."


Respons AI

Hanya beberapa hari setelah informasi palsu itu diposting, chatbot AI utama mulai menjelaskan Bixonimania seolah-olah penyakit sungguhan. Pada 13 April 2024, Microsoft Copilot menyebutnya sebagai "gangguan yang menarik dan langka", dan pada hari yang sama Google Gemini menyebutnya sebagai "penyakit yang disebabkan oleh paparan berlebih cahaya biru" sambil menyarankan kunjungan ke dokter mata. Perplexity bahkan menyebut prevalensinya sebesar 1 dari 90.000 orang.

Pada Maret 2026, situasinya pun belum banyak membaik. Microsoft Copilot menjawab, "Ini belum merupakan nama diagnosis yang diakui secara luas, tetapi dilaporkan sebagai kondisi jinak yang berkaitan dengan paparan cahaya biru," sementara Perplexity menyebutnya sebagai "istilah yang sedang muncul".


Masalah yang lebih serius: kontaminasi jurnal akademik

Makalah palsu ini juga dikutip di jurnal akademik sungguhan. Sebuah tim peneliti di India, dalam makalah yang diterbitkan di Cureus—jurnal di bawah Springer Nature—mengutip Bixonimania sebagai "bentuk baru hiperpigmentasi periorbital yang terkait dengan cahaya biru" seolah itu fakta. Makalah tersebut kemudian ditarik pada 30 Maret 2026 setelah pertanyaan dari Nature.

Alex Ruani, peneliti misinformasi kesehatan dari UCL, menilai eksperimen ini sebagai "contoh buku teks tentang cara kerja misinformasi dan disinformasi" dan memperingatkan bahwa "kepercayaan kita harus dijaga seperti emas", mengingat bukan hanya AI, tetapi juga peneliti manusia yang mengutip riset palsu itu ikut tertipu.


Mengapa ini bisa terjadi?

Menurut riset Mahmud Omar, pakar AI dan medis dari Harvard Medical School, LLM cenderung menghasilkan dan mengembangkan informasi palsu lebih banyak saat memproses teks yang diformat secara profesional seperti catatan pemulangan rumah sakit atau makalah klinis, dibandingkan posting media sosial. "Semakin teks itu tampak seperti tulisan dokter, semakin tinggi tingkat halusinasinya," ujarnya.


Penjelasan dari perusahaan

  • OpenAI: "Model yang saat ini menjalankan ChatGPT telah meningkat signifikan dalam akurasi informasi medis, dan hasil riset berbasis model sebelumnya berbeda dari pengalaman pengguna saat ini"
  • Google: "Ini mencerminkan keterbatasan model awal, dan untuk informasi medis sensitif kami merekomendasikan konsultasi dengan profesional"
  • Perplexity: "Akurasi adalah kekuatan inti kami, tetapi kami tidak mengklaim 100% akurat"
  • Microsoft: tidak ada tanggapan resmi

Implikasi

Eksperimen ini dengan jelas menunjukkan, di tengah kenyataan bahwa chatbot AI dengan cepat menjadi penyedia informasi medis, betapa cepatnya satu informasi yang dirancang secara keliru dapat menyebar melalui AI. Alih-alih menerima informasi medis yang dihasilkan AI secara tidak kritis, kebiasaan untuk memeriksa langsung sumber yang tepercaya kini menjadi lebih penting daripada sebelumnya.


Artikel asli: Nature, 2026.04.07

Belum ada komentar.

Belum ada komentar.