1 poin oleh GN⁺ 2025-09-30 | 1 komentar | Bagikan ke WhatsApp
  • Gubernur California menandatangani RUU yang memperkuat transparansi AI
  • Undang-undang ini menetapkan standar transparansi dalam pengembangan dan penggunaan sistem AI
  • Perusahaan kini berkewajiban mengungkap informasi tentang proses pengambilan keputusan AI dan dampaknya
  • Tujuan utamanya adalah melindungi konsumen dan memperkuat akuntabilitas atas penyalahgunaan AI
  • Pemberlakuan undang-undang ini menyiapkan landasan untuk mendorong regulasi industri AI dan pengembangan yang etis

Gambaran umum RUU transparansi AI California

  • Gubernur California secara resmi menandatangani undang-undang baru untuk memperkuat transparansi AI
  • Undang-undang ini mewajibkan perusahaan dan lembaga untuk mengungkap informasi terkait proses pengambilan keputusan saat mereka mengembangkan atau menggunakan sistem AI
  • Poin utamanya menegaskan tanggung jawab untuk menjelaskan data dan kriteria apa yang digunakan AI untuk menarik kesimpulan, serta apa dampak potensial dari sistem tersebut
  • Aturan ini menyiapkan mekanisme transparansi agar konsumen yang menggunakan layanan atau produk berbasis AI dapat mengetahui bahwa mereka terdampak oleh keputusan algoritmik
  • Pada akhirnya, undang-undang ini bertujuan meningkatkan akuntabilitas industri AI, sekaligus mencegah penyalahgunaan AI dan memulihkan kepercayaan konsumen
  • Melalui penerapan undang-undang ini, California diperkirakan akan memantapkan posisinya sebagai pemimpin etika dan regulasi AI di Amerika Serikat

1 komentar

 
GN⁺ 2025-09-30
Komentar Hacker News
  • Jika ini masalah di dunia nyata, saya penasaran apakah RUU ini bisa mencegah kekayaan intelektual (IP) saya digunakan oleh LLM tanpa izin
    • Tujuan terbesar RUU ini adalah menyediakan kerangka dasar agar diskusi bisa dilakukan berdasarkan data nyata. Karena itu, perusahaan teknologi diwajibkan mengungkap rencana keselamatan, laporan transparansi, dan riwayat insiden. Itulah juga alasan denda ditetapkan rendah, hanya 10 ribu dolar. Regulasi AI yang komprehensif masih terlalu dini untuk saat ini, dan California juga bukan pihak yang mengatur hukum hak cipta AS
    • Pemerintah diperintahkan membuat kerangka kerja untuk pengembangan klaster komputasi publik. Dalam RUU ini, ada kemungkinan besar sebagian kontraktor pemerintah akan mendapatkan keuntungan besar, dan jika melihat sejarah, uang itu juga bisa mengalir ke pihak tertentu lewat kontrak penunjukan langsung. Lihat artikel terkait: editorial Sacramento Bee
    • Ada ketentuan perlindungan whistleblower. Ini bisa membuat tindakan ilegal terungkap
    • Saat ini pun itu bisa dilindungi dengan cara yang sama seperti pelanggaran IP oleh manusia
    • Pada akhirnya, RUU ini menyelesaikan masalah nyata berupa memberi lebih banyak uang kepada pejabat pemerintah
  • Saya menemukan situs web yang menampilkan pasal RUU dan anotasinya: https://sb53.info/
    • Jika melihat definisi "model kecerdasan buatan", itu mencakup sistem berbasis mesin dengan berbagai tingkat otonomi yang dapat menghasilkan output dari input dan memengaruhi lingkungan fisik atau virtual. Artinya, mesin pemotong rumput sederhana pun bisa termasuk karena ada hubungan antara input (throttle, kill switch) dan output (bilah berputar). Definisi "risiko kritis" menyebut risiko yang dapat menyebabkan kematian/luka berat pada 50 orang atau lebih, atau kerugian lebih dari 1 miliar dolar, tetapi setiap tahun jumlah orang yang terluka oleh mesin pemotong rumput saja sudah lebih banyak dari itu
  • Kalau membaca naskah RUU aslinya, rasanya seperti pemberian perlakuan istimewa untuk industri "keselamatan AI". Sertifikasi kepatuhan akan diberi imbalan tinggi
    • Di firma akuntansi Big4 ada partner boomer yang menahan agar divisi konsultasi tidak dipisah, dan RUU AI kali ini akan menjadi sumber pendapatan baru bagi mereka. Saya kira deloitte akan mendapat keuntungan besar kali ini
    • Orang yang menulis komentar di atas bekerja di pengembang AI besar. Sikap menentang regulasi AI sangat terkait dengan gajinya sendiri. Ada juga kecenderungan menjadikan 'keselamatan AI' sebagai bahan ejekan. Banyak industri di Silicon Valley kurang punya kesadaran terhadap budaya keselamatan. Regulasi yang tidak efisien memang masalah, tetapi masalah yang muncul saat tidak ada regulasi sama sekali juga harus dipertimbangkan. Penyimpangan internal industri, rebate, dan kolusi juga wajib disorot
  • RUU ini menyebutkan bahwa untuk pelanggaran sengaja yang menyebabkan 'kematian, luka berat, risiko kritis', pelanggaran pertama didenda 1 juta dolar, dan setelahnya hingga 10 juta dolar. Untuk pelanggaran tidak sengaja (kesalahan, dsb.) yang tetap menciptakan risiko tersebut, tidak ada denda. Denda hanya punya batas atas, tanpa batas bawah. Artinya, 0 dolar pun memenuhi klausul 'hingga 10 juta dolar'
  • Jadi kalau menyebabkan kerugian 1 miliar dolar, dendanya hanya 10 juta dolar? Hal yang sama berlaku untuk kerugian yang "fatal". Menurut saya ini bukan regulasi. Bahkan jika OpenAI membayar insinyur 1 juta dolar per tahun, denda 10 ribu dolar atau bahkan 1 juta dan 10 juta dolar sama sekali tidak punya efek jera
  • Dari diskusinya saja, RUU ini tidak berarti apa-apa, tetapi pada saat yang sama juga menjadi alasan geoblock terhadap California. Ia melakukan terlalu banyak, tetapi sekaligus terlalu sedikit. Biayanya bisa dibilang terlalu tinggi, tetapi juga terlalu rendah. Ini contoh korupsi sekaligus langkah pertama regulasi AI. Perusahaan AI bisa saja meninggalkan California, atau justru lebih banyak masuk karena standar regulasinya rendah. Jika ada tautan ke diskusi yang benar-benar lebih mendalam, saya ingin tahu
    • Semua hasil itu mungkin terjadi, dan saya rasa semuanya akan bergantung pada bagaimana pemerintah dan pengadilan menafsirkan serta menegakkannya. Teks hukumnya sendiri terlalu ambigu, jadi bisa menjadi palu besar atau sama sekali tidak berdampak
  • Menurut saya ini seharusnya diatur lebih dulu lewat hukum federal. Tetapi definisi dalam RUU ini terlalu ceroboh. Khususnya definisi "model kecerdasan buatan" yang pada dasarnya mencakup semua mesin dan algoritma. Definisi itu terasa seperti dibuat sambil menonton The Twilight Zone dan berjaga-jaga kalau-kalau muncul android dengan jam kukuk
  • Saya penasaran bagaimana California akan mendefinisikan AI, dan saat ini itu terasa lebih seperti istilah pemasaran. Di sini tertulis sebagai sistem non-biologis yang menerima input dan menghasilkan output
    • Dua reaksi terhadap komentar ini menarik: "Tidak ada teknologi nyata yang sesuai definisi ini", "Jadi, pembuat kopi saya?"
    • Pendapat saya berbeda dari di atas. Teknologi yang sesuai definisi ini memang tidak benar-benar ada. AI tidak bisa 'menalar' apa pun dari input. Hal yang sama juga belum pernah dibuktikan pada manusia
    • Jadi pembuat kopi saya juga termasuk, kan
  • Singkatnya, ini hanyalah 'sensor dengan tambahan prosedur'. Dari tuntutan RUU ini, perusahaan harus mendokumentasikan mitigasi risiko dan protokol keselamatan, lalu pemerintah mendefinisikan apa yang berbahaya dan pihak swasta membangun sistem penyaringan sesuai itu. Ini adalah sensor preventif yang bertentangan dengan Amandemen Pertama Konstitusi AS. Mahkamah Agung federal sudah menegaskan bahwa hanya ajakan langsung pada tindakan kekerasan (preseden Brandenburg) dan kasus pengecualian tertentu (pornografi anak, ancaman nyata) yang diperbolehkan. Hanya karena teknologinya baru, negara seharusnya tidak punya hak menciptakan kategori baru untuk ujaran berisiko. Jika AI memberikan informasi setingkat ahli tentang desain senjata atau bantuan tindak kriminal, perusahaan harus melapor ke pemerintah dan juga menyediakan langkah mitigasi. Hari ini "risiko kritis", besok bisa meluas menjadi "misinformasi", "ujaran kebencian", dan sebagainya. Begitu negara mulai memaksa pembatasan konten atas nama keselamatan, ia kehilangan legitimasi logisnya
    • Berdasarkan 18 USC § 842, penyediaan informasi yang akan digunakan untuk tindak kriminal seperti cara membuat bahan peledak sudah merupakan tindak pidana. Ada keseimbangan antara kebebasan berekspresi dan kemungkinan bahaya nyata. AI bukan subjek kebebasan berekspresi, jadi negara bisa mengaturnya. Klaim bahwa mewajibkan perusahaan memfilter output AI adalah sensor preventif bergantung pada anggapan bahwa perusahaan tidak bisa mengendalikan "ucapan" AI. Logika ini tidak berlaku. Generator kalimat acak pun tidak otomatis dilindungi hanya karena saya meng-host-nya secara online. Menerapkan logika kebebasan berekspresi pada sensor AI tidak tepat
    • LLM tidak punya hak. LLM adalah alat, dan negara boleh mengatur alat. Bahkan jika orang sepaham, manusia pun bisa langsung mengunggah cara membuat senjata ke blog perusahaan
    • "Hari ini risiko kritis, besok misinformasi, ujaran kebencian, dan sebagainya" inilah masalahnya. Saya justru lebih khawatir pada risiko sehari-hari daripada risiko kritis. Walaupun LLM memberi informasi berbahaya, pada akhirnya itu hanya rangkuman dari hal-hal yang sudah terbuka di internet. Masyarakat AS sudah penuh ujaran kebencian, tetapi ini juga bukan masalah baru. Justru masalahnya adalah "misinformasi". LLM skala besar membaca internet lalu menambahkan aura otoritas, sehingga kekuatan Google atau MS jadi menempel pada informasi yang belum diverifikasi. Pendekatan yang baik adalah LLM memberi tahu dalam bentuk "Y menyatakan X". Isu "keselamatan" kebanyakan hanya soal memblokir konten dewasa, yang menurut saya sudah tidak terlalu berarti di era Pornhub. Masalah yang benar-benar perlu dibahas adalah layanan kustom AI untuk tujuan komersial, seperti menipu pelanggan atau menghindari mereka. Ini harus ditangani dari sudut hak konsumen. Masalah lainnya adalah ketika AI bertindak sebagai atasan saya, misalnya Uber
    • Setelah melihat perkembangan media sosial selama 15 tahun terakhir, saya mengambil pelajaran bahwa penilaian dan respons risiko yang cepat datang terlalu lambat. Media sosial sudah membangun pengaruh politik sehingga regulasi yang nyata hampir mustahil dilakukan. Saya berharap kesalahan yang sama tidak diulang pada AI generatif