- Seorang hakim pengadilan tingkat bawah di negara bagian Andhra Pradesh, India, diketahui mengutip putusan palsu buatan AI dalam perkara sengketa properti
- Mahkamah Agung menyebut ini sebagai persoalan ‘kekhawatiran institusional’ dan menganggapnya bukan sekadar kekeliruan penilaian, melainkan ‘pelanggaran tugas (misconduct)’
- Hakim tersebut menyatakan bahwa ia baru pertama kali memakai alat AI dan percaya kutipan itu asli, namun Mahkamah Agung menangguhkan efektivitas putusan pengadilan bawah
- Pengadilan tinggi India saat itu mengakui iktikad baik (good faith) sang hakim dan mempertahankan putusan, tetapi Mahkamah Agung menekankan masalah prosedural dalam penggunaan AI
- Kasus ini menyoroti dampak AI terhadap proses peradilan, dan kasus serupa juga telah dilaporkan bukan hanya di India tetapi juga di AS dan Inggris
Gambaran kasus
- Mahkamah Agung India sedang menyelidiki kasus ketika seorang hakim pengadilan perdata tingkat bawah di Vijayawada, Andhra Pradesh, memutus sengketa properti dengan mengutip preseden palsu buatan AI
- Perkara dipindahkan ke Mahkamah Agung setelah pihak tergugat mengajukan banding
- Mahkamah Agung menyebutnya sebagai “masalah yang secara langsung memengaruhi keandalan dan integritas proses peradilan”
- Insiden bermasalah itu terjadi pada Agustus 2025, dan hakim tersebut mengutip 4 preseden terdahulu, tetapi semuanya dipastikan sebagai dokumen palsu buatan AI
Penilaian pengadilan bawah dan pengadilan tinggi
- Tergugat mengajukan banding ke pengadilan tinggi dengan menunjukkan bahwa preseden yang dikutip adalah palsu
- Pengadilan tinggi mengakui hakim telah melakukan ‘kesalahan dengan iktikad baik’ dan tetap mempertahankan putusannya
- Pengadilan menyatakan, “meskipun kutipan itu tidak ada, tidak ada alasan untuk membatalkan putusan jika penerapan hukumnya benar”
- Pengadilan tinggi meminta hakim menyerahkan laporan, dan hakim menyatakan bahwa ia baru pertama kali menggunakan alat AI dan mempercayai materi yang dibuat otomatis
- Ia menjelaskan, “tidak ada niat untuk salah mengutip atau mendistorsi, dan kesalahan itu merupakan hasil ketergantungan pada sumber otomatis”
- Pengadilan tinggi juga menambahkan pandangan bahwa “yang dibutuhkan adalah penggunaan kecerdasan nyata, bukan kecerdasan buatan”
Reaksi Mahkamah Agung
- Mahkamah Agung segera menangguhkan (stay) putusan pengadilan bawah dan menyatakan penggunaan AI bukan sekadar kesalahan, melainkan ‘pelanggaran tugas’
- Mahkamah menekankan, “dalam perkara ini, persoalannya bukan isi putusan, melainkan masalah pada prosedur peradilan dan proses pengambilan keputusan itu sendiri”
- Mahkamah Agung memberi tahu Jaksa Agung, penasihat hukum, dan Bar Council of India serta memutuskan untuk melanjutkan pemeriksaan perkara
Benturan antara AI dan proses peradilan
- Mahkamah Agung India baru-baru ini juga menyampaikan kekhawatiran atas kasus para pengacara yang memakai alat AI untuk menyusun petisi
- Menurut media hukum LiveLaw, Mahkamah Agung menyebut bahwa “tindakan seperti ini sama sekali tidak dapat dibenarkan”
- Bukan hanya di India, kasus kekeliruan putusan akibat penggunaan AI juga dilaporkan di AS dan Inggris
- Pada Oktober 2025, terungkap bahwa 2 hakim federal AS menulis putusan yang keliru karena penggunaan AI
- Pada Juni 2025, Pengadilan Tinggi Inggris mengeluarkan peringatan larangan penggunaan preseden buatan AI kepada para pengacara
Respons peradilan India terhadap AI
- Mahkamah Agung India pada 2025 menerbitkan white paper tentang pemanfaatan AI di lingkungan peradilan
- White paper itu mencakup panduan penggunaan AI dan praktik terbaik
- Mahkamah Agung menekankan pentingnya human oversight serta menjaga perlindungan institusional
- Kasus ini menunjukkan bahwa sistem peradilan India sedang mencari keseimbangan antara adopsi dan pengendalian AI
1 komentar
Komentar Hacker News
Klaim bahwa AI akan menggantikan manusia tampaknya berlebihan
Pada akhirnya, orang yang bertanggung jawab tetap dibutuhkan, dan jika terjadi masalah, seseorang tetap harus dipecat atau masuk penjara
AI memang bisa meningkatkan produktivitas, tetapi sistem tanpa manusia sepenuhnya sangat mungkin berujung pada bencana atau gugatan hukum
Karena itu, perusahaan tidak melihat ROI seperti yang mereka harapkan
Bahkan kasus-kasus pemecatan dengan alasan “produktivitas naik berkat AI” pada umumnya hanyalah dalih untuk menutupi kinerja buruk
Jika AI dipakai hanya sebagai alat, tanggung jawab ada pada penggunanya; dan jika AI diperlakukan seolah-olah sebagai ‘pekerjaan orang lain’, itu berarti mendelegasikan pada pihak yang tidak berkualifikasi, sehingga pada akhirnya tetap menjadi kesalahan pengguna
Tapi saya hampir tidak pernah melihat orang itu benar-benar dimintai pertanggungjawaban
Teks yang dihasilkan LLM seharusnya ditandai dalam blok Unicode terpisah agar jelas merupakan hasil buatan AI
Menyembunyikan atau memanipulasinya itu seperti dokter melakukan operasi tanpa mencuci tangan
Katanya ada “checks and balances”, tetapi peradilan justru jadi pengecualian
Laporan MIT juga menyebut bahwa sebagian besar karyawan memakai AI lewat akun pribadi, bukan akun perusahaan
Alasan “kesalahan yang timbul karena bergantung pada sumber otomatis” tidak bisa diterima
Dalam profesi apa pun, saat mengotomatisasi dengan LLM, tanggung jawab tetap ada pada profesionalnya
Menyalahkan alat dengan alasan tidak memahami alat tersebut juga tidak masuk akal secara hukum
Seperti masa ketika insinyur bersertifikat hanya menandatangani pekerjaan outsourcing, struktur ini menghapus pengaman demi semakin murah dan cepat
LLM bukan penyebabnya, melainkan hanya menyingkap realitas kemunduran ini
Saya juga menyukai AI, tetapi penggunaan yang bertanggung jawab tetap diperlukan
Kekeliruan dan tindakan sengaja seharusnya diperlakukan berbeda secara hukum
Jika hal seperti ini terus berulang, maka alatnya sendiri harus disesuaikan
Walaupun penggunanya dianggap salah setiap saat, jika masalah yang sama terus muncul secara sistemik, pada akhirnya itu adalah masalah desain alat
Tidak mengetahuinya berarti malas atau tidak kompeten
Saya penasaran kapan para pengacara akan sadar bahwa isi yang dikatakan LLM harus diverifikasi sendiri
Seperti mobil otonom, struktur “campur tangan hanya saat diperlukan” pasti gagal karena batas perhatian manusia
Pendekatan “manusia harus memeriksa dengan lebih baik” secara realistis tidak akan berjalan
Itulah yang paling berbahaya
Ini bukan cuma masalah pengacara
Menarik bahwa mahkamah agung menyarankan, “gunakan kecerdasan nyata, bukan kecerdasan buatan”
Pada akhirnya tampaknya akan makin banyak makalah dengan sitasi palsu
Jika AI belajar dari materi seperti ini, ada risiko informasi halusinatif melebihi informasi nyata di internet
Di AS dan Inggris masalahnya juga serupa
Karena para pengacara lemah dalam hal teknologi, kesalahan jadi tak terhindarkan saat mereka mengedit sendiri dokumen yang dibuat chatbot
Kasus terkait juga dibahas dalam laporan Doughty Street
Sistem hukum itu sendiri menghasilkan terlalu banyak boilerplate yang tidak perlu
Para pengacara juga tidak membaca semuanya, hanya memindai bagian yang diperlukan
Menggunakan AI secara tidak bertanggung jawab memang masalah, tetapi ini juga bisa menjadi peluang untuk menyederhanakan struktur dokumen hukum
Hukum memang berbeda dari kode, tetapi struktur yang terlalu kompleks tetap punya ruang untuk diperbaiki
Jika disederhanakan, justru ruang tafsir bisa membesar dan sengketa meningkat
Pada akhirnya legalese adalah mekanisme untuk mengurangi keraguan
Strukturnya hanya terus diberi ornamen tanpa penyederhanaan mendasar
Masalah ini akan membesar di semua industri
Saya sedang meneliti langkah penanganannya di bidang fintech, dan pendekatan Resemble AI tampak paling praktis
Intinya bukan hanya teks, tetapi juga deteksi kloning suara AI dan watermarking
Kenyataan bahwa kita harus terus merespons sambil tertinggal satu langkah tidaklah mudah
Alasan “kesalahan karena bergantung pada sumber otomatis” itu seperti
berkata, “senjatanya otomatis, jadi kematian orang itu bukan salah saya”
Prediksi token berikutnya dan halusinasi bukan sekadar bug
Sangat berbahaya membiarkan masalah seperti ini di bidang yang mengutamakan keandalan dan integritas