1 poin oleh GN⁺ 3 jam lalu | 1 komentar | Bagikan ke WhatsApp
  • Sebuah suite plugin yang mencakup seluruh spektrum praktik hukum mulai dari kontrak komersial internal, privasi, ketenagakerjaan, M&A, litigasi, regulasi, tata kelola AI, kekayaan intelektual, hingga pendidikan hukum, dan dapat didistribusikan melalui tiga cara: Claude Cowork, Claude Code, dan Managed Agents API
  • Termasuk lebih dari 70 Named Agent — seperti Vendor Agreement Reviewer, NDA Triager, Termination Reviewer, DSAR Responder, Claim Chart Builder, dan lainnya — yang dapat dijalankan untuk tiap alur kerja hanya dengan satu perintah slash
  • Setiap plugin mempelajari playbook tim, aturan eskalasi, dan house style melalui cold-start interview, lalu mencatatnya dalam profil praktik CLAUDE.md sehingga semua skill dapat menghasilkan output yang disesuaikan
  • Menyediakan lebih dari 20 konektor MCP: integrasi dengan alat umum seperti Slack, Google Drive, Box, serta sistem khusus hukum seperti Ironclad, DocuSign, iManage, Everlaw, CourtListener, dan Trellis
  • Plugin CoCounsel Legal dari Thomson Reuters mengintegrasikan Westlaw Deep Research, dan dapat membuat laporan kutipan lengkap untuk preseden, undang-undang, dan regulasi di hingga 3 yurisdiksi AS
  • Kutipan melalui konektor riset diberi tag sumber, sedangkan kutipan yang hanya berasal dari pengetahuan model diberi flag [verify] untuk membedakan tingkat keandalan kutipan secara eksplisit
  • Skill terkait kontrak bekerja dalam mode tracked changes di sidebar Claude for Word, sambil mempertahankan penomoran, klausul definisi, referensi silang, dan gaya. Skill untuk Excel menghasilkan output sebagai workbook .xlsx multi-sheet
  • legal-builder-hub menyediakan lapisan kepercayaan untuk skill komunitas — pemindaian konten tersembunyi, deteksi injeksi, allowlist, gerbang lisensi, gerbang freshness, pemindaian ulang saat pembaruan, dan log audit instalasi
  • Termasuk plugin pendidikan seperti Socratic Drill untuk mahasiswa hukum (mode belajar tanpa memberikan jawaban), penilaian IRAC, persiapan ujian advokat, flashcard, prediksi ujian, serta plugin legal-clinic (dirancang berdasarkan ABA Formal Op. 512)
  • Semua output adalah draf untuk ditinjau pengacara dan tidak mewakili posisi hukum Anthropic. Seluruhnya disusun dalam Markdown dan JSON sehingga tidak memerlukan tahap build
  • Lisensi Apache-2.0

1 komentar

 
GN⁺ 3 jam lalu
Komentar Hacker News
  • Dari sudut pandang pengacara ini menarik, tetapi ada dua hambatan yang saya tidak tahu bagaimana Anthropic akan melewatinya
    (1) Jika orang yang bukan pengacara mencoba memakai skill/konektor seperti ini untuk mendapatkan nasihat hukum, percakapan itu tidak dilindungi oleh privilege pengacara-klien. Ini jelas pada akhirnya akan menjadi masalah besar bagi seseorang
    (2) Jika seorang pengacara memasukkan informasi rahasia klien dan lupa mematikan “Help improve Claude” di pengaturan, kemungkinan ia telah melakukan malapraktik pengacara. Informasi rahasia di sini bukan hanya nomor identitas atau nomor rekening, tetapi “semua informasi yang berkaitan dengan perwakilan klien”
    https://www.americanbar.org/content/dam/aba/administrative/p...

    • Sebagai dasar untuk poin 1 ada https://harvardlawreview.org/blog/2026/03/united-states-v-he...
      Hakim Rakoff dari Pengadilan Distrik Selatan New York, dalam membahas “isu pertama di tingkat nasional”, memutuskan bahwa percakapan tertulis antara terdakwa pidana dan platform AI generatif Claude tidak dilindungi oleh privilege pengacara-klien maupun doktrin work product
      Isinya jauh lebih rumit daripada satu kalimat ini, tetapi setidaknya aman untuk menganggap bahwa jika pembelaan hukum atau unsur-unsurnya dimasukkan ke AI, itu bisa menjadi objek discovery
    • Poin 1 terasa benar-benar aneh. Kalau saya membayar pengacara lalu pengacara itu memasukkan pertanyaan yang sama ke alat seperti ini, itu dilindungi privilege pengacara-klien, tetapi kalau saya sendiri mengajukan pertanyaan yang sama untuk menyiapkan pembelaan, itu bisa menjadi sasaran subpoena atau discovery
      Saya penasaran apakah ada prosedur keamanan operasional saat memakai alat pihak ketiga seperti ini untuk pertanyaan hukum sensitif, yang tetap etis sekaligus memastikan interaksinya tidak masuk ke dokumen discovery
    • Poin 1 sedikit rumit. Percakapan dengan AI dalam beberapa kasus bisa dilindungi oleh doktrin work product, tetapi terbatas pada pihak pro se yang menangani litigasinya sendiri, dan dibatasi ketat pada sejauh mana itu termasuk kesan mental serta opini work product pengacara. Dalam kasus seperti ini, perlindungan itu diperluas ke pihak pro se. Lihat Warner v. Gilbarco, Inc.
      Ringkasan situasi saat ini dijelaskan dengan baik di sini: https://www.akerman.com/en/perspectives/ai-privilege-and-wor...
      Namun tidak satu pun dari ini merupakan preseden yang mengikat, jadi bidang ini akan terus berubah seiring waktu
    • Poin 2 pada dasarnya tampaknya akan dipakai lewat akun organisasi/bisnis dengan retensi data dimatikan
    • Apakah poin 1 tidak bisa diselesaikan dengan satu kalimat dalam hukum? Sesuatu seperti, “Pertanyaan hukum kepada LLM tunduk pada privilege pengacara-klien yang sama”
  • Siapa yang bertanggung jawab kalau ini melakukan sesuatu yang salah? Anthropic Inc jelas tidak akan menanggungnya. Tidak ada asuransi errors and omissions, tidak ada tanggung jawab hukum, tidak ada privilege pengacara-klien, dan tidak ada asosiasi advokat yang akan menangani disiplin
    Secara realistis, ini terasa lebih seperti versi lebih canggih dari “kit surat wasiat” yang menghasilkan PDF. Sampai ada sesuatu yang berubah secara mendasar, sistem hukum tampaknya tidak akan memandang hal seperti ini secara positif
    Dalam budaya yang gemar menggugat, tentu menyenangkan kalau kita tidak perlu menghabiskan ribuan dolar untuk membela diri, tetapi saya tidak akan mempertaruhkan hidup dan kesejahteraan saya pada ini

    • Di repositorinya ada klausul penyangkalan tanggung jawab yang sangat kuat bahwa mereka sama sekali tidak bertanggung jawab. Ini tampak lebih dekat ke kategori contoh penggunaan untuk pemasaran daripada sesuatu yang benar-benar berguna
    • Pengguna yang harus bertanggung jawab. Tidak berubah hanya karena pengguna memperoleh informasi dari LLM, mesin, atau postingan web; menurut saya memang benar bahwa pihak yang mengajukan dokumenlah yang bertanggung jawab
    • Pengacaralah yang memikul tanggung jawab. Penggunaan AI bukan keputusan biner. Pengacara bisa memakai AI untuk bekerja lebih efisien, dan klien bisa memakai AI untuk lebih memahami situasi mereka saat ini atau penjelasan dari pengacara, atau untuk belajar pertanyaan apa yang perlu diajukan. Atau bisa juga dipakai dalam situasi berisiko rendah ketika tak seorang pun mau membayar biaya pengacara
      Saya cukup optimistis dengan hati-hati soal AI dalam pekerjaan hukum. Sebagian besar pekerjaan hukum adalah kerja berulang menelusuri tumpukan dokumen, jadi hanya dari tugas yang sudah dikerjakan LLM dengan baik pun ruang penerapannya besar. Namun untuk pekerjaan hukum, menurut saya pendekatan berbasis agen seperti Claude memang lebih tepat
      Jendela konteks LLM terlalu kecil untuk menampung dokumen bahkan untuk perkara kecil. Jadi alat ini harus dipakai seperti programmer memakainya: bekerja di atas struktur file, menyimpan status di file .md, dan seterusnya. Pendekatan ini sudah berkembang baik di pemrograman, tetapi perusahaan AI hukum bahkan belum benar-benar menyentuh permukaannya. Produk yang menyembunyikan LLM di balik antarmuka tertentu juga, sejujurnya, tidak terlalu bagus
      Sayangnya, dalam contoh individu membela gugatan dengan biaya rendah, AI tampaknya tidak akan banyak membantu. Sebagian besar pekerjaan itu adalah menangani manusia. Mencari tahu apa yang terjadi, berbicara dengan orang-orang terkait, merapikan cerita yang saling bertentangan, menyelesaikan lewat kesepakatan jika memungkinkan, atau jika tidak, meyakinkan hakim di pengadilan. AI justru tampak lebih cocok membantu perusahaan besar mengendalikan biaya hukum dalam litigasi besar sambil saling melempar lebih banyak dokumen
    • Sistem hukum juga pada awalnya tidak memandang penghapusan larangan jaywalking secara positif. Di AS itu memakan waktu sekitar 20 tahun
    • Menurut teks aslinya, pengacara yang memakai plugin, yaitu pengacara tersebut dan bukan plugin atau Anthropic, yang bertanggung jawab atas posisi hukum yang diambil dalam work product mereka sendiri
  • Riwayat chat AI tidak dilindungi seperti privilege pengacara-klien, dan dapat dipakai sebagai bukti yang merugikan Anda di pengadilan. Jika Anda berbicara dengan pengacara dan pengacara itu memakai AI, percakapan itu menjadi objek privilege

    • Tidak. Jika Anda berbicara dengan pengacara dan pengacara itu mengambil langkah pencegahan yang wajar untuk menjaga keutuhan hubungan rahasia pengacara-klien, privilege tetap berlaku. Jika tidak, maka tidak berlaku
  • Sepertinya mereka mengeluarkan Lexis, yang mungkin merupakan salah satu alat terpenting bagi pengacara: https://github.com/anthropics/claude-for-legal/pull/5

    • “Atas permintaan mitra” — saya penasaran apakah Thomson Reuters (Westlaw) merasa terancam sampai perlu mengeluh seperti ini. Justru saya jadi ingin tahu seberapa baik skill ini akan bekerja bersama Lexis
    • Kenapa tidak pakai saja versi codebase sebelum perubahan itu?
  • Jadi saya rasa saat ini valuasi banyak startup AI lapisan aplikasi agak rapuh. Ketika perusahaan AI besar seperti Anthropic mulai merambah produk vertikal, perhitungannya berubah
    Meski begitu, saya penasaran seberapa serius mereka akan terus menjalankannya. Mungkin salah satu keunggulan yang masih dimiliki sebagian startup adalah ketakutan bahwa paket produk OpenAI/Anthropic dan semacamnya bisa langsung dikirim ke kuburan dalam 1–2 tahun seperti produk Google

    • Ini mirip dengan bertanya apa yang terjadi kalau AWS mulai melakukannya. Mereka sudah punya seluruh infrastrukturnya. LLM hanyalah satu roda gigi, dan di sisi aplikasi masih banyak hal yang sama sekali belum mereka kerjakan
    • Semua valuasi di bidang AI rapuh. Tidak ada tempat yang benar-benar punya rencana bisnis yang kokoh, hanya suasana, tetapi uang terus saja mengalir
  • Frasa “alur kerja hukum yang paling sering kami lihat” agak mengganggu saya. Apakah ini berarti berdasarkan sesi pelanggan? Apakah mereka berhak memakai data pelanggan untuk membangun basis pengetahuan tentang semua profesi, topik, dan alur kerja di seluruh dunia?

    • Menurut saya iya. Mereka melatih AI dengan data perusahaan Anda agar nantinya bisa menggantikan bisnis Anda. Kalau sulit percaya, coba sebutkan satu saja hal yang tidak mereka latih
    • Ya, ini memang berdasarkan sesi pelanggan
      Mereka percaya bahwa mereka punya hak untuk itu, dan mereka mengatakannya cukup terbuka
      Bahkan ada namanya. Clio, dan menurut halaman itu ini adalah “sistem untuk insight yang menjaga privasi tentang penggunaan AI di dunia nyata”
      Halaman terkait ada di sini: https://www.anthropic.com/research/clio
    • Juga penting menurut hukum negara mana. Anda tahu hukum berbeda-beda di tiap negara, kan?
    • “Apakah secara hukum dan moral punya hak” dan “apakah bertindak seolah punya hak” adalah dua hal berbeda. Pertanyaan besar
  • Pada titik tertentu, pengacara, legal officer, dan hakim sepertinya akan memakai hal seperti ini. Kalau begitu, pengacara bisa berubah menjadi semacam ahli SEO/copywriter yang lebih pandai menipu LLM di pihak lawan

    • Kita sebenarnya sudah lama melewati titik itu. Lihat saja berapa banyak kasus di seluruh dunia ketika pengacara mengajukan dokumen ke pengadilan yang berisi kutipan preseden hasil halusinasi
    • Hukum bagaimanapun tertulis di suatu tempat. Manusia bisa melihat hukum yang sebenarnya dan menilai apakah AI sedang bicara omong kosong
  • Sebagai seseorang yang dulu pernah mewakili diri sendiri di tribunal, ini jelas menarik
    Namun di beberapa yurisdiksi seperti Inggris, Anda tidak bisa begitu saja memberi seseorang nasihat hukum tanpa otorisasi SRA atau regulasi FCA. Artinya, ini secara efektif bisa menjadikan Anthropic sebuah perusahaan manajemen klaim menurut hukum Inggris
    Menurut article 89I dari Financial Services and Markets Act 2000 (Regulated Activities) Order 2001, memberi saran kepada penggugat atau calon penggugat terkait klaim yang menyangkut jasa keuangan atau produk keuangan, menyelidiki klaim, atau mewakili penggugat, adalah aktivitas teregulasi yang didefinisikan
    https://www.fca.org.uk/freedom-information/dual-regulation-c...

  • Pada titik ini perusahaan AI seharusnya sudah belajar bahwa ranah hukum bukan tempat yang bisa disentuh sembarangan. Rekam jejaknya saja sudah cukup. Tetapi para optimis AI tertentu ini tampaknya tidak punya kemampuan belajar

    • Sepertinya permainan-mainan di bidang ini tidak akan berhenti. Pengacara mahal, jadi potensi keuntungan saat menggantinya dengan AI besar. Namun ada orang yang berpikir perusahaan AI akan bersaing dengan pengacara dengan langsung memberi nasihat hukum, dan menurut saya mereka tidak akan pernah melakukan itu karena ladang ranjau tanggung jawabnya terlalu besar
      Sebaliknya, mereka akan menyediakan layanan AI kepada firma hukum, dan firma hukum akan memakainya dalam proses pemberian layanan hukum mereka sendiri. Suka atau tidak, itu sudah terjadi, dan hampir semua firma hukum korporat besar sudah memakai AI dengan satu cara atau lainnya. Klien pun menuntutnya. Masalah akibat penggunaan AI dalam hukum akan terus muncul, tetapi tanggung jawabnya akan jatuh ke pengacara
    • Selama mereka tidak dipaksa menanggung tanggung jawabnya, efek publisitas yang didapat dari ini saja sudah cukup bernilai. Bukan situasi yang baik
  • Nama organisasi GitHub “Anthropics” tampak cukup menyesatkan