- Di legislatif Negara Bagian New York, diajukan RUU yang mewajibkan pemasangan peringatan pada konten berita yang dibuat AI serta peninjauan oleh manusia
- Nama RUU tersebut adalah 'NY FAIR News Act (New York Fundamental Artificial Intelligence Requirements in News Act)', yang bertujuan meningkatkan transparansi industri berita dan melindungi jurnalisme
- Ketentuan utamanya mencakup pengungkapan penggunaan AI, peninjauan editor, dan penyediaan perlindungan untuk informasi rahasia
- RUU ini menyoroti kemungkinan kepalsuan dan plagiarisme pada konten buatan AI, serta memuat ketentuan perlindungan tenaga kerja seperti larangan pemecatan pekerja media atau pemotongan upah
- Serikat media besar seperti WGA-East, SAG-AFTRA, DGA, NewsGuild of New York mendukungnya, dan RUU ini diperhatikan sebagai langkah menghadapi penurunan kepercayaan dan ancaman pekerjaan akibat adopsi AI
Ringkasan NY FAIR News Act
- NY FAIR News Act, yang diajukan bersama oleh Senator Negara Bagian New York Patricia Fahy dan anggota majelis Nily Rozic, mewajibkan organisasi berita untuk menandai dengan jelas konten yang dibuat oleh AI
- Pada “konten yang secara substansial ditulis dengan menggunakan AI generatif”, harus dipasang peringatan (disclaimer)
- Berlaku tidak hanya untuk artikel, tetapi juga untuk semua bentuk konten berita seperti audio, gambar, dan materi visual
- Semua konten buatan AI harus melalui peninjauan terlebih dahulu oleh staf manusia yang memiliki kendali editorial
- Di dalam newsroom juga harus ada pengungkapan kepada anggota seperti reporter mengenai apakah AI digunakan dan bagaimana penggunaannya
Isi regulasi utama dalam RUU
- Memuat banyak ketentuan yang berfokus pada penguatan transparansi AI
- Wajib menyediakan perlindungan bagi informasi rahasia yang dapat diakses AI (terutama informasi terkait narasumber)
- Termasuk klausul pengecualian perlindungan hak cipta: dikecualikan bila kepengarangan manusia diakui menurut hukum hak cipta
- Secara eksplisit menyoroti masalah keandalan hasil buatan AI
- Para legislator menyebut bahwa konten AI “dapat palsu atau menyesatkan” serta memiliki “kemungkinan kutipan tanpa izin dan plagiarisme”
Respons industri media dan serikat
- RUU ini mendapat dukungan luas dari serikat-serikat utama di industri media
- WGA-East, SAG-AFTRA, DGA, NewsGuild of New York ikut mendukung
- Juru bicara NewsGuild Jennifer Sheehan mengonfirmasi bahwa serikat sedang membahas dampak adopsi AI dan isu perlindungan pekerjaan
- Pada Desember 2025, NewsGuild memulai kampanye 'News Not Slop' untuk menuntut pengamanan terhadap penggunaan AI di newsroom
- Di New York City, serikat Business Insider menggelar aksi protes terhadap artikel yang dipublikasikan dengan byline AI
Perlindungan jurnalisme dan hak tenaga kerja
- RUU ini mencakup ketentuan yang melarang pemecatan, pengurangan tugas, serta pemotongan upah dan tunjangan akibat adopsi AI
- Ini merupakan upaya mengubah menjadi undang-undang ketentuan yang dalam beberapa tahun terakhir dimasukkan ke kontrak serikat di newsroom masing-masing
- Senator Fahy mengatakan bahwa “AI dapat mengancam jurnalisme dan kepercayaan publik”, dan menyebut 76% warga AS menyatakan kekhawatiran bahwa AI dapat mencuri atau mereproduksi konten berita
Latar belakang dan makna
- New York adalah pusat industri media AS, dan ada dorongan untuk sekaligus memperkuat keandalan jurnalisme dan perlindungan pekerja
- RUU ini dinilai sebagai upaya legislasi tingkat negara bagian pertama yang mencakup transparansi AI, hak cipta, dan hak tenaga kerja
1 komentar
Komentar Hacker News
Agak mengejutkan bahwa berita tentang legislasi terkait AI belakangan ini hampir tidak dibahas
Di negara bagian New York saja ada berbagai rancangan undang-undang seperti RAISE (protokol keselamatan AI frontier, pengawasan, pelaporan insiden), S8420A (kewajiban mengungkap tokoh buatan AI dalam iklan), GBL Article 47 (deteksi krisis dan peringatan pada chatbot AI), S7676B (perlindungan hak potret AI untuk aktor), NYC LL144 (pengawasan bias pada alat perekrutan AI), serta SAFE for Kids Act yang membatasi feed algoritmik untuk anak di bawah umur (masih tertunda)
Bahkan jika sebuah aplikasi hanya melayani pengguna di New York, setidaknya tiga di antaranya bisa berlaku
Sistem hukum per negara bagian di AS terasa seperti ladang ranjau yang lebih rumit daripada regulasi UE
Tapi menurut saya justru akan ditegakkan dengan cara yang menghukum pengembang yang jujur secara berlebihan
Bukan cuma untuk melindungi anak di bawah umur, tetapi agar pengguna bisa memilih sendiri dan itu akan membantu memulihkan kepercayaan
Karena sistem non-deterministik tidak bisa diaudit secara menyeluruh
Sebagai gantinya, mungkin lebih realistis jika serikat atau guild media secara sukarela menandai apakah AI digunakan
Pada kenyataannya mereka terikat pada sistem hukum yang berpusat pada perusahaan besar, sambil tetap merasa dirinya lebih unggul
Saya rasa kita membutuhkan pelabelan "liputan asli"
Sebagian besar berita hanyalah informasi yang diproses ulang sehingga bisa digantikan AI, tetapi peran jurnalis yang melakukan peliputan langsung tidak tergantikan
Semua artikel harus mencantumkan sumbernya, dan jika AI membuat tautan yang salah maka itu adalah sinyal peringatan besar
Ironisnya, media besar justru dipercaya meski sumbernya dangkal
Ini dipengaruhi oleh proyek awal Civil
Tentu saja, perlindungan sumber anonim jurnalis harus menjadi pengecualian
Berita yang dihasilkan AI harus selalu ditinjau editor manusia
Organisasi harus bertanggung jawab atas hasil AI, dan ini tidak boleh berakhir hanya sebagai peringatan untuk lepas tanggung jawab
Jangan sampai berubah menjadi pertunjukan kepatuhan yang formalistik seperti sertifikasi keamanan
Jika ada kerugian akibat berita AI yang salah, perusahaan media harus bertanggung jawab
Menuntut tanggung jawab harus dimulai dari atas
Idealnya, menipu orang dengan menyamarkan hasil buatan AI sebagai karya manusia harus ilegal
Jika peringatan diumbar ke mana-mana, orang akan mengabaikan sinyalnya
Agar kredibilitas peringatan tetap terjaga, itu harus dibatasi hanya untuk artikel berita
Karena kamera smartphone dan Photoshop juga memakai AI
AI bisa terlibat di setiap tahap itu
Saya khawatir undang-undang seperti ini pada akhirnya akan berujung seperti Prop 65, yakni semua konten ditempeli peringatan "menggunakan AI"
Frasa samar seperti "sebagian besar melibatkan AI" akan menjadi taman bermain bagi para pengacara
Lihat wiki Prop 65
Penyuntingan atau koreksi pun bisa dianggap sebagai "penulisan substansial"
Menurut artikel Washington Post, 78% produsen menyesuaikan ulang komposisinya
Saya telah memulai kelompok kerja di W3C untuk standardisasi pengungkapan konten AI
Kami sedang membuat standar agar situs web bisa secara sukarela mengungkap sejauh mana AI terlibat
Lihat halaman W3C dan repositori GitHub
New York ingin printer 3D mendeteksi saat mencetak komponen senjata
Tetapi regulasi seperti ini pada akhirnya hanya akan menjadi sistem yang dipatuhi oleh pengguna beritikad baik
Tidak ada cara untuk mendeteksi dengan sempurna apakah sesuatu dibuat oleh AI, dan solusi yang lebih realistis adalah pendidikan serta peningkatan kesadaran
Pada akhirnya semua situs web tampaknya akan memasang kalimat seperti "situs ini mungkin memuat konten AI menurut standar negara bagian New York"
Jika perusahaan media menempelkan peringatan pada semua konten, nilai peringatannya akan hilang
Jika regulator melarang ini, media justru bisa terdorong memakai AI untuk semua konten
Saya ingin menyebut ini efek "Sesame"
Saya tidak percaya pada media yang menempelkan peringatan seragam pada semua artikel
Semua diskusi ini pada akhirnya adalah soal budaya yang terlalu percaya pada hasil AI
Peringatan hanyalah langkah sementara; yang dibutuhkan adalah akuntabilitas dalam struktur pengambilan keputusan itu sendiri
Kami sedang bereksperimen dengan sistem berbasis konsensus di mana beberapa agen AI independen saling memberi suara dan memverifikasi
Bisa diuji lewat CLI open source consensus.tools
Dalam kenyataan yang dipenuhi konten berkualitas rendah, sistem konsensus sulit diterapkan karena biayanya tinggi
Karena itu, setidaknya kewajiban peringatan minimum tetap diperlukan