- Meta Platforms secara resmi mengumumkan tidak akan menandatangani Kode Praktik Kecerdasan Buatan Uni Eropa (EU)
- Kepala kebijakan global Meta, Joel Kaplan, menekankan bahwa kode tersebut merupakan regulasi berlebihan yang menghambat inovasi dan pertumbuhan
- Kode tersebut bertujuan menyediakan pedoman transparansi dan keselamatan untuk kepatuhan terhadap AI Act (disahkan pada 2024)
- Komisi Eropa pekan lalu merilis kode praktik final untuk model AI tujuan umum, dan masing-masing perusahaan dapat secara sukarela memutuskan apakah akan menandatanganinya
- Selain Meta, perusahaan seperti ASML dan Airbus ikut dalam surat yang meminta penundaan penerapan, sementara OpenAI menyatakan niat untuk bergabung dengan kode praktik tersebut
Latar belakang penolakan Meta terhadap kode praktik AI Eropa
- Meta Platforms secara resmi mengumumkan telah memutuskan untuk tidak menandatangani kode praktik kecerdasan buatan Uni Eropa
- Kepala kebijakan global Joel Kaplan menyatakan bahwa "Eropa sedang menempuh jalan yang salah terkait AI"
- Kaplan berargumen bahwa kode tersebut menimbulkan ketidakpastian hukum bagi pengembang model dan memperkenalkan langkah-langkah berlebihan yang melampaui cakupan AI Act
- Kode praktik tersebut dimaksudkan untuk merinci persyaratan transparansi dan keselamatan dalam AI Act yang disahkan tahun lalu, dan dijadwalkan mulai berlaku bulan depan
Gambaran umum kode praktik AI Uni Eropa
- Komisi Eropa merilis kode praktik final untuk model AI tujuan umum
- Masing-masing perusahaan dapat secara sukarela memutuskan apakah akan menandatangani kode tersebut
- Tujuan kode ini adalah menyediakan kerangka kerja untuk kepatuhan terhadap AI Act serta memastikan transparansi dan keselamatan teknologi AI
Respons industri dan isu utama
- Kaplan dari Meta mengkritik bahwa "kode ini diatur secara berlebihan, sehingga akan menjadi hambatan serius bagi pengembangan model AI dan pertumbuhan bisnis di Eropa"
- Sejumlah perusahaan besar seperti ASML dan Airbus menandatangani surat yang meminta penundaan penerapan selama dua tahun, menunjukkan sikap kritis
- Sebaliknya, OpenAI secara resmi menyatakan niat untuk berpartisipasi dalam kode praktik Eropa tersebut
Pergantian kepala kebijakan global Meta
- Joel Kaplan ditunjuk sebagai kepala kebijakan global Meta mulai awal 2025
- Sebelumnya, ia pernah menjabat sebagai wakil presiden kebijakan AS di Facebook dan bekerja di pemerintahan George W. Bush
2 komentar
Penjelasan draf pertama EU AI Act oleh Latham & Watkins yang disebutkan dalam komentar Hacker News di bawah ini
European Commission Releases First Draft of General-Purpose AI Code of Practice
Poin utama dalam draf EU AI Act
Transparansi
Kepatuhan hak cipta
Text and Data Mining (TDM)
Transparansi kepatuhan hak cipta
Klasifikasi risiko sistemik
Kerangka manajemen risiko sistemik
Komentar Hacker News
Bukan hanya Meta, 40 perusahaan Eropa juga meminta UE menunda penerapan AI Act selama 2 tahun dengan alasan implementasinya tidak jelas. Code of Practice kali ini adalah standar sukarela dan cakupannya lebih luas daripada hukum yang sebenarnya. UE mengisyaratkan bahwa jika ikut serta secara sukarela, regulasinya bisa lebih ringan. Namun, Meta tampaknya menilai persetujuan sukarela seperti ini tidak memberi manfaat nyata karena bagaimanapun mereka tetap akan menjadi objek regulasi dalam semua aspek. Poin penting dalam aturan tersebut adalah penyedia model juga harus bertanggung jawab jika mitra menggunakannya secara tidak semestinya. Ini adalah tuntutan yang sangat berat bagi open source. Misalnya, penyedia GPAI harus menyiapkan langkah yang wajar untuk mencegah pelanggaran hak cipta, dan juga didorong untuk menegaskan secara kontraktual bahwa mitra harus mematuhi langkah pencegahan tersebut. Lihat penjelasan Latham & Watkins untuk detailnya
Jika membaca kutipannya, kita bisa memahami konteks mengapa UE membuat klausul pengecualian yang mengizinkan materi yang dilindungi hak cipta digunakan sebagai data pelatihan tanpa lisensi. Meski ada kesulitan dalam penerapannya, menurut saya mereka mencoba mencari keseimbangan yang cukup elegan.
Saya rasa standar ini masuk akal. Bahkan untuk model AI open source pun, kita bisa memasukkan klausul lisensi seperti “mengambil langkah yang sesuai agar tidak berulang kali menghasilkan keluaran yang identik atau mirip dengan konten berhak cipta”. Ini hukum Eropa, bukan hukum AS, dan konsep “wajar (reasonable)” ditafsirkan hakim dengan menimbang kepentingan kedua belah pihak, jadi tidak diputuskan hanya dari tafsir harfiah.
Sungguh bikin frustrasi melihat industri baru seperti ini diatur terburu-buru saat kita bahkan belum tahu bagaimana pasar akan berkembang.
Saya tidak menganggap standar ini berlebihan, karena jika seseorang membuat model yang mereproduksi banyak karya berhak cipta apa adanya, maka distribusinya memang tidak seharusnya diizinkan. Itu pun tidak akan diizinkan pada software biasa. Hanya karena ini model AI bukan berarti harus ada pengecualian.
Bagian yang menyebut penyedia model harus bertanggung jawab atas penyalahgunaan oleh mitra sebenarnya tidak ada dalam teks hukum asli[0], melainkan ada di bab hak cipta dalam Code of Practice. Namun, Code ini tidak menambahkan kewajiban baru di atas hukum, melainkan memberi contoh tentang ‘bagaimana’ hukum itu bisa dipatuhi. Misalnya, hukum mewajibkan penghormatan terhadap ‘machine-readable opt-out’, tetapi tidak menjelaskan cara spesifiknya; di dalam code, penggunaan robots.txt diberikan sebagai contoh. Hal terkait hak cipta dinyatakan dalam measure 1.4, yaitu a) mengambil langkah teknis agar model tidak mereproduksi konten yang melanggar hak cipta, b) menjelaskan dengan tegas dalam syarat penggunaan atau dokumentasi bahwa penggunaan yang melanggar hak cipta tidak diizinkan. Untuk model open source, cukup memberi tahu hal itu dalam dokumentasi. Code of Practice ini hanya berlaku jika ditandatangani secara sukarela; bukan berarti kalau orang lain mengambil model saya lalu menandatanganinya, tanggung jawabnya jadi muncul pada saya. Ini seperti memublikasikan plugin Photoshop di bawah GPL tidak lantas memaksa source Photoshop dibuka. Hukum ini juga punya cukup banyak pengecualian untuk open source. Alasan Meta menolak tampaknya karena EU AI Office tidak mengakui Meta AI sebagai open source, sehingga mereka tidak mendapat pengecualian tersebut. Lihat tautan regulasi dan tautan Code of Practice untuk teks lengkapnya.
Saya akui, hanya dari reaksi Meta saja muncul prasangka bahwa AI Act kali ini mungkin justru berisi hal-hal yang memang kita butuhkan. Saya sebenarnya tidak tahu persis isinya, tetapi tetap jadi berpikir begitu.
“AI Code of Practice” terdiri dari 3 bab, dan bisa dilihat di sini serta riwayat drafnya. Saya belum membaca seluruh teksnya, dan lebih familier dengan AI Act sebelumnya (artificialintelligenceact.eu). Dugaan saya, Meta terutama mempermasalahkan bab 2, yaitu bagian hak cipta, khususnya yang berbenturan dengan praktik crawling tanpa izin atas materi berhak cipta. Apakah ini benar-benar termasuk ‘fair use’ juga masih belum jelas hingga sekarang.
Saya tidak berpikir bahwa hanya karena suatu perusahaan ‘jahat’, maka argumennya otomatis salah.
Bagi yang ingin ringkasan panduan, bisa lihat di sini. Jelas ini aturan yang berat. Kalau dilihat isinya, memang tampak lebih menguntungkan pemegang hak cipta besar, pengacara, dan birokrat.
Regulasi seperti ini pada akhirnya bisa menjadi jebakan bagi perusahaan Eropa. Begitu melewati skala tertentu, beban regulasinya melonjak tajam, sehingga bagi perusahaan AI Eropa kecil atau rintisan, melewati ambang pertumbuhan itu sendiri jadi menakutkan. Sementara itu, big tech AS dan Tiongkok bisa berinovasi jauh lebih cepat dalam lingkungan yang lebih longgar, menaikkan level AI sekaligus memperbesar modal. Akibatnya, mereka bisa masuk ke pasar UE dengan produk yang lebih matang dan dana yang lebih tebal, sehingga persaingan yang sesungguhnya justru akan menguntungkan mereka.
Eropa belum pernah benar-benar membangun industri AI, tetapi sudah mencoba mengatur seluruh industrinya dengan detail berlebihan. Ini sudah seperti regulasi demi regulasi itu sendiri. Saya sempat berharap laporan daya saing UE dari Draghi akan menjadi titik balik, tetapi kecewa karena UE sama sekali tidak mengubah arahnya. Saya jadi kehilangan kepercayaan pada kebijakan UE.
Anda menyebutnya ‘berat’, tapi saya penasaran, bagian mana tepatnya yang menurut Anda begitu membebani?
Aturan UE kadang punya kekuatan seperti kebijakan cookie yang membuat seluruh dunia ikut. Biasanya, agar kelompok kecil bisa memaksakan tuntutan kepada mayoritas, biaya mematuhi harus lebih rendah daripada biaya menolak. Tapi AI berbeda. Skalanya terlalu besar dan tidak ada yang akan berhenti. AI tidak akan bisa dihentikan kecuali mungkin oleh perang nuklir.
Potensi risiko AI sangat besar. Dari senjata otomatis sampai AGI yang berbahaya, semua bisa dibayangkan. Jerman masih punya trauma soal senapan mesin otomatis dari masa pembagian Jerman Timur dan Barat, dan Ukraina juga sedang mengalami guncangan psikologis serius akibat perang drone. Risiko nyata AI juga jelas ada. Regulasi dan hukum itu penting.
Hasil dari hukum cookie hanyalah orang-orang disiksa oleh popup tanpa akhir. Tanpa uBlock, menggunakan web saja terasa menyakitkan. Pelacakan pengguna berpindah ke sisi server, dan perlindungan privasi yang sesungguhnya tidak benar-benar meningkat. Uang yang beredar terlalu besar, jadi industri dengan mudah mengakali regulasi yang lemah seperti ini.
Saya kaget melihat begitu banyak komentar yang langsung sejalan dengan regulasi Eropa. Apakah saya satu-satunya yang pada dasarnya melihat regulasi Eropa sebagai sesuatu yang berlebihan dan dirancang buruk?
Sampai sekarang, Eropa belum pernah mengeluarkan kebijakan yang benar-benar memecah dominasi big tech AS. Sebagian besar pengguna UE masih bergantung pada Google, Meta, dan Amazon. Tujuan UE tampaknya bukan melawan perusahaan AS secara langsung, melainkan menjaga sopan santun dan beberapa kepentingan keamanan nasional. Terlalu halus, tetapi pada dasarnya posisi itu masuk akal.
Jika dilihat dari sisi perlindungan warga, saya penasaran apa sebenarnya buruknya jika regulasi dibuat ketat.
Menyebutnya ‘membabi buta’ berarti mengasumsikan bahwa Anda benar dan pihak lain membuat keputusan itu karena tidak tahu. Anda sendiri juga mengatakan ‘pada dasarnya mengasumsikan’, jadi itu sama saja dengan mengkritik diri sendiri.
Sebenarnya terasa seperti terlalu banyak pendapat eksternal yang ikut campur untuk menekan Eropa.
Justru masalahnya ada pada sikap “pada dasarnya mengasumsikan” itu sendiri. Lebih baik jangan berasumsi dulu, baca langsung materi terkait, lalu bentuk pendapat Anda sendiri. Saya sarankan orang-orang punya pandangannya sendiri alih-alih hanya mengikuti pendapat perusahaan multinasional lintas negara.
Saya khawatir UE akan membuat semua LLM dipenuhi popup seperti semua website.
Internet sejak awal memang dipenuhi popup dan pola UX pengalih perhatian. Jadi aneh kalau satu-satunya yang dipermasalahkan justru popup yang memberi pengguna kesempatan memilih sendiri untuk menolak pelacakan.
Yang mewajibkan popup bukan UE, melainkan perusahaan. Kalau pengelola website mengurangi atau sama sekali menghindari pengumpulan data, popup itu sebenarnya tidak diperlukan. Namun mereka justru rela mengorbankan usability dan memasang popup yang tak bermakna. Hasilnya adalah kekacauan sekarang. Setidaknya situs yang tidak mengumpulkan apa pun, misalnya blog Fabien Sanglard, sama sekali tidak punya popup. Kesalahan UE adalah tidak mengantisipasi penyalahgunaan semacam ini. Hasil akhirnya memang sangat buruk.
Sebenarnya hal seperti ini bisa dilakukan tanpa popup, tetapi semua orang hanya sibuk meniru perusahaan besar. Meniru lebih diprioritaskan daripada pengalaman pengguna.
Saya benar-benar benci popup seperti ini. Melihat situasi ini dibiarkan terus menunjukkan betapa lambannya para penanggung jawab.
Saya menduga tujuannya memang untuk menghambat pertumbuhan Meta. Dari postingan LinkedIn, Meta malah mengatakan mereka khawatir pertumbuhan perusahaan Eropa yang akan terhambat. Mereka menyebut bahwa “regulasi yang berlebihan seperti ini menghambat pengembangan/distribusi model frontier AI di Eropa, dan juga melemahkan perusahaan Eropa yang ingin membangun bisnis di atasnya”.
Saat Meta berkata bahwa mereka “berbagi kekhawatiran dengan perusahaan lain”, makna sebenarnya mungkin cuma mereka sedang memakai argumen yang paling nyaman untuk PR pada saat itu. Pada kenyataannya, mereka sama sekali tidak peduli pada kepentingan publik atau keuntungan perusahaan lain, dan hanya memikirkan cara mengumpulkan lebih banyak data serta menjual lebih banyak iklan.
Kalau benar-benar menelusuri Code of Practice, tidak ada bagian yang terasa sangat berlebihan atau layak disebut ‘penyalahgunaan wewenang yang berlebihan’. Pada akhirnya yang diminta hanyalah penyedia model bertindak transparan, dan ini kebetulan bertabrakan dengan cara Meta selama ini beroperasi.
Dalam postingan LinkedIn Kaplan, sama sekali tidak disebut bagian kebijakan mana yang bermasalah. Ungkapan “menghambat pertumbuhan” pun sebenarnya bisa saja hanya berarti hal yang cukup sederhana, seperti kewajiban opt-in saat meluncurkan fitur baru.
Lingkungan global makin terbelah, dan saya rasa Meta ikut berperan dalam memperbesar ketidakpuasan dan konflik. Suatu hari saya ingin pergi ke Eropa dan bebas memakai open source LLM.
Saya berharap diskusi ini tidak berujung pada kesimpulan bahwa “kalau ada regulasi maka perkembangan AI akan berhenti”. Hak cipta dan perlindungan sumber informasi juga harus diberi nilai yang cukup.