1 poin oleh GN⁺ 2026-03-05 | 1 komentar | Bagikan ke WhatsApp
  • Seorang hakim pengadilan tingkat bawah di negara bagian Andhra Pradesh, India, diketahui mengutip putusan palsu buatan AI dalam perkara sengketa properti
  • Mahkamah Agung menyebut ini sebagai persoalan ‘kekhawatiran institusional’ dan menganggapnya bukan sekadar kekeliruan penilaian, melainkan ‘pelanggaran tugas (misconduct)’
  • Hakim tersebut menyatakan bahwa ia baru pertama kali memakai alat AI dan percaya kutipan itu asli, namun Mahkamah Agung menangguhkan efektivitas putusan pengadilan bawah
  • Pengadilan tinggi India saat itu mengakui iktikad baik (good faith) sang hakim dan mempertahankan putusan, tetapi Mahkamah Agung menekankan masalah prosedural dalam penggunaan AI
  • Kasus ini menyoroti dampak AI terhadap proses peradilan, dan kasus serupa juga telah dilaporkan bukan hanya di India tetapi juga di AS dan Inggris

Gambaran kasus

  • Mahkamah Agung India sedang menyelidiki kasus ketika seorang hakim pengadilan perdata tingkat bawah di Vijayawada, Andhra Pradesh, memutus sengketa properti dengan mengutip preseden palsu buatan AI
    • Perkara dipindahkan ke Mahkamah Agung setelah pihak tergugat mengajukan banding
    • Mahkamah Agung menyebutnya sebagai “masalah yang secara langsung memengaruhi keandalan dan integritas proses peradilan
  • Insiden bermasalah itu terjadi pada Agustus 2025, dan hakim tersebut mengutip 4 preseden terdahulu, tetapi semuanya dipastikan sebagai dokumen palsu buatan AI

Penilaian pengadilan bawah dan pengadilan tinggi

  • Tergugat mengajukan banding ke pengadilan tinggi dengan menunjukkan bahwa preseden yang dikutip adalah palsu
    • Pengadilan tinggi mengakui hakim telah melakukan ‘kesalahan dengan iktikad baik’ dan tetap mempertahankan putusannya
    • Pengadilan menyatakan, “meskipun kutipan itu tidak ada, tidak ada alasan untuk membatalkan putusan jika penerapan hukumnya benar”
  • Pengadilan tinggi meminta hakim menyerahkan laporan, dan hakim menyatakan bahwa ia baru pertama kali menggunakan alat AI dan mempercayai materi yang dibuat otomatis
    • Ia menjelaskan, “tidak ada niat untuk salah mengutip atau mendistorsi, dan kesalahan itu merupakan hasil ketergantungan pada sumber otomatis”
  • Pengadilan tinggi juga menambahkan pandangan bahwa “yang dibutuhkan adalah penggunaan kecerdasan nyata, bukan kecerdasan buatan

Reaksi Mahkamah Agung

  • Mahkamah Agung segera menangguhkan (stay) putusan pengadilan bawah dan menyatakan penggunaan AI bukan sekadar kesalahan, melainkan ‘pelanggaran tugas’
    • Mahkamah menekankan, “dalam perkara ini, persoalannya bukan isi putusan, melainkan masalah pada prosedur peradilan dan proses pengambilan keputusan itu sendiri
  • Mahkamah Agung memberi tahu Jaksa Agung, penasihat hukum, dan Bar Council of India serta memutuskan untuk melanjutkan pemeriksaan perkara

Benturan antara AI dan proses peradilan

  • Mahkamah Agung India baru-baru ini juga menyampaikan kekhawatiran atas kasus para pengacara yang memakai alat AI untuk menyusun petisi
    • Menurut media hukum LiveLaw, Mahkamah Agung menyebut bahwa “tindakan seperti ini sama sekali tidak dapat dibenarkan”
  • Bukan hanya di India, kasus kekeliruan putusan akibat penggunaan AI juga dilaporkan di AS dan Inggris
    • Pada Oktober 2025, terungkap bahwa 2 hakim federal AS menulis putusan yang keliru karena penggunaan AI
    • Pada Juni 2025, Pengadilan Tinggi Inggris mengeluarkan peringatan larangan penggunaan preseden buatan AI kepada para pengacara

Respons peradilan India terhadap AI

  • Mahkamah Agung India pada 2025 menerbitkan white paper tentang pemanfaatan AI di lingkungan peradilan
    • White paper itu mencakup panduan penggunaan AI dan praktik terbaik
  • Mahkamah Agung menekankan pentingnya human oversight serta menjaga perlindungan institusional
  • Kasus ini menunjukkan bahwa sistem peradilan India sedang mencari keseimbangan antara adopsi dan pengendalian AI

1 komentar

 
GN⁺ 2026-03-05
Komentar Hacker News
  • Klaim bahwa AI akan menggantikan manusia tampaknya berlebihan
    Pada akhirnya, orang yang bertanggung jawab tetap dibutuhkan, dan jika terjadi masalah, seseorang tetap harus dipecat atau masuk penjara
    AI memang bisa meningkatkan produktivitas, tetapi sistem tanpa manusia sepenuhnya sangat mungkin berujung pada bencana atau gugatan hukum
    Karena itu, perusahaan tidak melihat ROI seperti yang mereka harapkan
    Bahkan kasus-kasus pemecatan dengan alasan “produktivitas naik berkat AI” pada umumnya hanyalah dalih untuk menutupi kinerja buruk

    • Pekerjaan yang mensyaratkan kualifikasi hukum, seperti pengacara atau dokter, adalah contoh yang lebih jelas
      Jika AI dipakai hanya sebagai alat, tanggung jawab ada pada penggunanya; dan jika AI diperlakukan seolah-olah sebagai ‘pekerjaan orang lain’, itu berarti mendelegasikan pada pihak yang tidak berkualifikasi, sehingga pada akhirnya tetap menjadi kesalahan pengguna
    • Waktu kecil saya sering mendengar “komputernya down”, padahal sebenarnya manusia yang salah ngoding
      Tapi saya hampir tidak pernah melihat orang itu benar-benar dimintai pertanggungjawaban
    • Penggunaan AI juga memerlukan konsep higiene
      Teks yang dihasilkan LLM seharusnya ditandai dalam blok Unicode terpisah agar jelas merupakan hasil buatan AI
      Menyembunyikan atau memanipulasinya itu seperti dokter melakukan operasi tanpa mencuci tangan
    • Sebenarnya hakim juga sering tidak dimintai pertanggungjawaban atas putusan yang keliru
      Katanya ada “checks and balances”, tetapi peradilan justru jadi pengecualian
    • Salah satu alasan perusahaan tidak melihat ROI dari AI mungkin karena karyawan memakai AI lewat akun pribadi, lalu menyimpan sendiri peningkatan efisiensinya
      Laporan MIT juga menyebut bahwa sebagian besar karyawan memakai AI lewat akun pribadi, bukan akun perusahaan
  • Alasan “kesalahan yang timbul karena bergantung pada sumber otomatis” tidak bisa diterima
    Dalam profesi apa pun, saat mengotomatisasi dengan LLM, tanggung jawab tetap ada pada profesionalnya
    Menyalahkan alat dengan alasan tidak memahami alat tersebut juga tidak masuk akal secara hukum

    • Menggunakan LLM pada dasarnya hanya versi terbaru dari outsourcing murah
      Seperti masa ketika insinyur bersertifikat hanya menandatangani pekerjaan outsourcing, struktur ini menghapus pengaman demi semakin murah dan cepat
      LLM bukan penyebabnya, melainkan hanya menyingkap realitas kemunduran ini
      Saya juga menyukai AI, tetapi penggunaan yang bertanggung jawab tetap diperlukan
    • Kesengajaan itu penting
      Kekeliruan dan tindakan sengaja seharusnya diperlakukan berbeda secara hukum
    • Menyalahkan manusia saja tidak akan menyelesaikan masalah
      Jika hal seperti ini terus berulang, maka alatnya sendiri harus disesuaikan
      Walaupun penggunanya dianggap salah setiap saat, jika masalah yang sama terus muncul secara sistemik, pada akhirnya itu adalah masalah desain alat
    • Masalah halusinasi (hallucination) pada LLM sudah diketahui luas
      Tidak mengetahuinya berarti malas atau tidak kompeten
  • Saya penasaran kapan para pengacara akan sadar bahwa isi yang dikatakan LLM harus diverifikasi sendiri

    • Pada akhirnya kebanyakan orang memang tidak akan memverifikasi
      Seperti mobil otonom, struktur “campur tangan hanya saat diperlukan” pasti gagal karena batas perhatian manusia
      Pendekatan “manusia harus memeriksa dengan lebih baik” secara realistis tidak akan berjalan
    • Orang cenderung tanpa sadar mempercayai LLM karena gaya bicaranya yang terdengar penuh percaya diri
      Itulah yang paling berbahaya
    • Sebenarnya LLM seperti cermin yang hanya memperlihatkan seberapa rusaknya masyarakat
    • Kasus seperti ini yang masuk berita mungkin hanya sebagian kecil; sangat mungkin semua orang melakukan kesalahan serupa di dunia nyata
    • Minggu ini saya menelusuri sitasi makalah, dan 25% sepenuhnya dipalsukan, sementara separuh sisanya juga salah
      Ini bukan cuma masalah pengacara
  • Menarik bahwa mahkamah agung menyarankan, “gunakan kecerdasan nyata, bukan kecerdasan buatan

  • Pada akhirnya tampaknya akan makin banyak makalah dengan sitasi palsu
    Jika AI belajar dari materi seperti ini, ada risiko informasi halusinatif melebihi informasi nyata di internet

  • Di AS dan Inggris masalahnya juga serupa
    Karena para pengacara lemah dalam hal teknologi, kesalahan jadi tak terhindarkan saat mereka mengedit sendiri dokumen yang dibuat chatbot
    Kasus terkait juga dibahas dalam laporan Doughty Street

  • Sistem hukum itu sendiri menghasilkan terlalu banyak boilerplate yang tidak perlu
    Para pengacara juga tidak membaca semuanya, hanya memindai bagian yang diperlukan
    Menggunakan AI secara tidak bertanggung jawab memang masalah, tetapi ini juga bisa menjadi peluang untuk menyederhanakan struktur dokumen hukum
    Hukum memang berbeda dari kode, tetapi struktur yang terlalu kompleks tetap punya ruang untuk diperbaiki

    • Bahasa hukum membutuhkan ungkapan presisi untuk menghilangkan ambiguitas
      Jika disederhanakan, justru ruang tafsir bisa membesar dan sengketa meningkat
      Pada akhirnya legalese adalah mekanisme untuk mengurangi keraguan
    • Dokumen hukum itu seperti kode yang terus ditambahi layer
      Strukturnya hanya terus diberi ornamen tanpa penyederhanaan mendasar
  • Masalah ini akan membesar di semua industri
    Saya sedang meneliti langkah penanganannya di bidang fintech, dan pendekatan Resemble AI tampak paling praktis
    Intinya bukan hanya teks, tetapi juga deteksi kloning suara AI dan watermarking
    Kenyataan bahwa kita harus terus merespons sambil tertinggal satu langkah tidaklah mudah

  • Alasan “kesalahan karena bergantung pada sumber otomatis” itu seperti
    berkata, “senjatanya otomatis, jadi kematian orang itu bukan salah saya”

  • Prediksi token berikutnya dan halusinasi bukan sekadar bug
    Sangat berbahaya membiarkan masalah seperti ini di bidang yang mengutamakan keandalan dan integritas