2 poin oleh GN⁺ 2026-02-07 | 1 komentar | Bagikan ke WhatsApp
  • Di legislatif Negara Bagian New York, diajukan RUU yang mewajibkan pemasangan peringatan pada konten berita yang dibuat AI serta peninjauan oleh manusia
  • Nama RUU tersebut adalah 'NY FAIR News Act (New York Fundamental Artificial Intelligence Requirements in News Act)', yang bertujuan meningkatkan transparansi industri berita dan melindungi jurnalisme
  • Ketentuan utamanya mencakup pengungkapan penggunaan AI, peninjauan editor, dan penyediaan perlindungan untuk informasi rahasia
  • RUU ini menyoroti kemungkinan kepalsuan dan plagiarisme pada konten buatan AI, serta memuat ketentuan perlindungan tenaga kerja seperti larangan pemecatan pekerja media atau pemotongan upah
  • Serikat media besar seperti WGA-East, SAG-AFTRA, DGA, NewsGuild of New York mendukungnya, dan RUU ini diperhatikan sebagai langkah menghadapi penurunan kepercayaan dan ancaman pekerjaan akibat adopsi AI

Ringkasan NY FAIR News Act

  • NY FAIR News Act, yang diajukan bersama oleh Senator Negara Bagian New York Patricia Fahy dan anggota majelis Nily Rozic, mewajibkan organisasi berita untuk menandai dengan jelas konten yang dibuat oleh AI
    • Pada “konten yang secara substansial ditulis dengan menggunakan AI generatif”, harus dipasang peringatan (disclaimer)
    • Berlaku tidak hanya untuk artikel, tetapi juga untuk semua bentuk konten berita seperti audio, gambar, dan materi visual
  • Semua konten buatan AI harus melalui peninjauan terlebih dahulu oleh staf manusia yang memiliki kendali editorial
  • Di dalam newsroom juga harus ada pengungkapan kepada anggota seperti reporter mengenai apakah AI digunakan dan bagaimana penggunaannya

Isi regulasi utama dalam RUU

  • Memuat banyak ketentuan yang berfokus pada penguatan transparansi AI
    • Wajib menyediakan perlindungan bagi informasi rahasia yang dapat diakses AI (terutama informasi terkait narasumber)
    • Termasuk klausul pengecualian perlindungan hak cipta: dikecualikan bila kepengarangan manusia diakui menurut hukum hak cipta
  • Secara eksplisit menyoroti masalah keandalan hasil buatan AI
    • Para legislator menyebut bahwa konten AI “dapat palsu atau menyesatkan” serta memiliki “kemungkinan kutipan tanpa izin dan plagiarisme

Respons industri media dan serikat

  • RUU ini mendapat dukungan luas dari serikat-serikat utama di industri media
    • WGA-East, SAG-AFTRA, DGA, NewsGuild of New York ikut mendukung
    • Juru bicara NewsGuild Jennifer Sheehan mengonfirmasi bahwa serikat sedang membahas dampak adopsi AI dan isu perlindungan pekerjaan
  • Pada Desember 2025, NewsGuild memulai kampanye 'News Not Slop' untuk menuntut pengamanan terhadap penggunaan AI di newsroom
    • Di New York City, serikat Business Insider menggelar aksi protes terhadap artikel yang dipublikasikan dengan byline AI

Perlindungan jurnalisme dan hak tenaga kerja

  • RUU ini mencakup ketentuan yang melarang pemecatan, pengurangan tugas, serta pemotongan upah dan tunjangan akibat adopsi AI
    • Ini merupakan upaya mengubah menjadi undang-undang ketentuan yang dalam beberapa tahun terakhir dimasukkan ke kontrak serikat di newsroom masing-masing
  • Senator Fahy mengatakan bahwa “AI dapat mengancam jurnalisme dan kepercayaan publik”, dan menyebut 76% warga AS menyatakan kekhawatiran bahwa AI dapat mencuri atau mereproduksi konten berita

Latar belakang dan makna

  • New York adalah pusat industri media AS, dan ada dorongan untuk sekaligus memperkuat keandalan jurnalisme dan perlindungan pekerja
  • RUU ini dinilai sebagai upaya legislasi tingkat negara bagian pertama yang mencakup transparansi AI, hak cipta, dan hak tenaga kerja

1 komentar

 
GN⁺ 2026-02-07
Komentar Hacker News
  • Agak mengejutkan bahwa berita tentang legislasi terkait AI belakangan ini hampir tidak dibahas
    Di negara bagian New York saja ada berbagai rancangan undang-undang seperti RAISE (protokol keselamatan AI frontier, pengawasan, pelaporan insiden), S8420A (kewajiban mengungkap tokoh buatan AI dalam iklan), GBL Article 47 (deteksi krisis dan peringatan pada chatbot AI), S7676B (perlindungan hak potret AI untuk aktor), NYC LL144 (pengawasan bias pada alat perekrutan AI), serta SAFE for Kids Act yang membatasi feed algoritmik untuk anak di bawah umur (masih tertunda)
    Bahkan jika sebuah aplikasi hanya melayani pengguna di New York, setidaknya tiga di antaranya bisa berlaku
    Sistem hukum per negara bagian di AS terasa seperti ladang ranjau yang lebih rumit daripada regulasi UE

    • Banyak orang mengira undang-undang seperti ini tidak akan benar-benar ditegakkan
      Tapi menurut saya justru akan ditegakkan dengan cara yang menghukum pengembang yang jujur secara berlebihan
    • Saya berharap undang-undang seperti SAFE for Kids Act diperluas agar semua pengguna mendapat toggle untuk mematikan feed algoritmik
      Bukan cuma untuk melindungi anak di bawah umur, tetapi agar pengguna bisa memilih sendiri dan itu akan membantu memulihkan kepercayaan
    • Pada akhirnya saya melihat kemungkinan besar perekrutan dengan AI akan dilarang sepenuhnya
      Karena sistem non-deterministik tidak bisa diaudit secara menyeluruh
    • Menempelkan peringatan pada publikasi adalah tantangan hukum yang lebih sulit karena menyangkut kebebasan berekspresi
      Sebagai gantinya, mungkin lebih realistis jika serikat atau guild media secara sukarela menandai apakah AI digunakan
    • AS menertawakan regulasi UE adalah semacam rasionalisasi diri
      Pada kenyataannya mereka terikat pada sistem hukum yang berpusat pada perusahaan besar, sambil tetap merasa dirinya lebih unggul
  • Saya rasa kita membutuhkan pelabelan "liputan asli"
    Sebagian besar berita hanyalah informasi yang diproses ulang sehingga bisa digantikan AI, tetapi peran jurnalis yang melakukan peliputan langsung tidak tergantikan
    Semua artikel harus mencantumkan sumbernya, dan jika AI membuat tautan yang salah maka itu adalah sinyal peringatan besar

    • Situs saya Forty.news membahas berita dari 40 tahun lalu, tetapi saya tetap sering mendengar "butuh sumber"
      Ironisnya, media besar justru dipercaya meski sumbernya dangkal
    • Colorado Sun memasang label jenis peliputan pada setiap artikel
      Ini dipengaruhi oleh proyek awal Civil
    • Seperti kita ingin tahu asal makanan, transparansi sumber informasi juga penting
      Tentu saja, perlindungan sumber anonim jurnalis harus menjadi pengecualian
    • Memang sudah ada label seperti "exclusive!", tetapi itu bukan penanda sumber yang sebenarnya
  • Berita yang dihasilkan AI harus selalu ditinjau editor manusia
    Organisasi harus bertanggung jawab atas hasil AI, dan ini tidak boleh berakhir hanya sebagai peringatan untuk lepas tanggung jawab
    Jangan sampai berubah menjadi pertunjukan kepatuhan yang formalistik seperti sertifikasi keamanan
    Jika ada kerugian akibat berita AI yang salah, perusahaan media harus bertanggung jawab

    • Tapi bahkan presiden pun menyebarkan video manipulasi AI tanpa dimintai pertanggungjawaban
      Menuntut tanggung jawab harus dimulai dari atas
  • Idealnya, menipu orang dengan menyamarkan hasil buatan AI sebagai karya manusia harus ilegal

    • Tetapi jika semua hal diberi peringatan, itu berisiko menjadi tak bermakna seperti Prop 65
      Jika peringatan diumbar ke mana-mana, orang akan mengabaikan sinyalnya
      Agar kredibilitas peringatan tetap terjaga, itu harus dibatasi hanya untuk artikel berita
    • Definisi "dihasilkan AI" itu kabur
      Karena kamera smartphone dan Photoshop juga memakai AI
    • Sulit juga membedakan antara pekerjaan manusia yang ceroboh dan hasil buatan AI
    • Penerbitan bukan sekadar menulis, tetapi juga mencakup riset, penyuntingan, peninjauan, dan banyak tahap lain
      AI bisa terlibat di setiap tahap itu
    • Pada akhirnya, garis batas antara dibantu AI vs dihasilkan AI adalah isu utamanya
  • Saya khawatir undang-undang seperti ini pada akhirnya akan berujung seperti Prop 65, yakni semua konten ditempeli peringatan "menggunakan AI"
    Frasa samar seperti "sebagian besar melibatkan AI" akan menjadi taman bermain bagi para pengacara
    Lihat wiki Prop 65

    • Tapi kalau begitu, mungkin pemfilteran konten non-AI justru jadi memungkinkan
    • Namun seperti kebanyakan peringatan wajib, kemungkinan besar ini akan menjadi formalitas yang tak berarti
    • Bahkan bisa saja "No AI!" menjadi opsi premium bagi kalangan kaya
      Penyuntingan atau koreksi pun bisa dianggap sebagai "penulisan substansial"
    • Sebaliknya, ada juga penelitian bahwa Prop 65 benar-benar mengurangi penggunaan bahan kimia oleh perusahaan
      Menurut artikel Washington Post, 78% produsen menyesuaikan ulang komposisinya
  • Saya telah memulai kelompok kerja di W3C untuk standardisasi pengungkapan konten AI
    Kami sedang membuat standar agar situs web bisa secara sukarela mengungkap sejauh mana AI terlibat
    Lihat halaman W3C dan repositori GitHub

    • Ada pertanyaan tentang bagaimana cara berpartisipasi
  • New York ingin printer 3D mendeteksi saat mencetak komponen senjata
    Tetapi regulasi seperti ini pada akhirnya hanya akan menjadi sistem yang dipatuhi oleh pengguna beritikad baik
    Tidak ada cara untuk mendeteksi dengan sempurna apakah sesuatu dibuat oleh AI, dan solusi yang lebih realistis adalah pendidikan serta peningkatan kesadaran

  • Pada akhirnya semua situs web tampaknya akan memasang kalimat seperti "situs ini mungkin memuat konten AI menurut standar negara bagian New York"

    • Lalu muncul juga candaan bahwa sekalian saja benar-benar dibuat seperti itu
  • Jika perusahaan media menempelkan peringatan pada semua konten, nilai peringatannya akan hilang
    Jika regulator melarang ini, media justru bisa terdorong memakai AI untuk semua konten
    Saya ingin menyebut ini efek "Sesame"

    • Sebagai jurnalis data, saya memang menggunakan AI sebagian, tetapi saya selalu mengungkapkannya di bagian metodologi
      Saya tidak percaya pada media yang menempelkan peringatan seragam pada semua artikel
    • Sebaliknya, media yang benar-benar memverifikasi dengan tangan manusia bisa berharap jumlah pelanggan bertambah
    • Strategi diferensiasi seperti "semua konten kami diverifikasi manusia" juga mungkin dilakukan
  • Semua diskusi ini pada akhirnya adalah soal budaya yang terlalu percaya pada hasil AI
    Peringatan hanyalah langkah sementara; yang dibutuhkan adalah akuntabilitas dalam struktur pengambilan keputusan itu sendiri
    Kami sedang bereksperimen dengan sistem berbasis konsensus di mana beberapa agen AI independen saling memberi suara dan memverifikasi
    Bisa diuji lewat CLI open source consensus.tools

    • Tetapi sebagian besar pembuat konten memprioritaskan kecepatan dan penghematan biaya daripada akurasi
      Dalam kenyataan yang dipenuhi konten berkualitas rendah, sistem konsensus sulit diterapkan karena biayanya tinggi
      Karena itu, setidaknya kewajiban peringatan minimum tetap diperlukan