4 poin oleh GN⁺ 2025-07-20 | 2 komentar | Bagikan ke WhatsApp
  • Meta Platforms secara resmi mengumumkan tidak akan menandatangani Kode Praktik Kecerdasan Buatan Uni Eropa (EU)
  • Kepala kebijakan global Meta, Joel Kaplan, menekankan bahwa kode tersebut merupakan regulasi berlebihan yang menghambat inovasi dan pertumbuhan
  • Kode tersebut bertujuan menyediakan pedoman transparansi dan keselamatan untuk kepatuhan terhadap AI Act (disahkan pada 2024)
  • Komisi Eropa pekan lalu merilis kode praktik final untuk model AI tujuan umum, dan masing-masing perusahaan dapat secara sukarela memutuskan apakah akan menandatanganinya
  • Selain Meta, perusahaan seperti ASML dan Airbus ikut dalam surat yang meminta penundaan penerapan, sementara OpenAI menyatakan niat untuk bergabung dengan kode praktik tersebut

Latar belakang penolakan Meta terhadap kode praktik AI Eropa

  • Meta Platforms secara resmi mengumumkan telah memutuskan untuk tidak menandatangani kode praktik kecerdasan buatan Uni Eropa
  • Kepala kebijakan global Joel Kaplan menyatakan bahwa "Eropa sedang menempuh jalan yang salah terkait AI"
  • Kaplan berargumen bahwa kode tersebut menimbulkan ketidakpastian hukum bagi pengembang model dan memperkenalkan langkah-langkah berlebihan yang melampaui cakupan AI Act
  • Kode praktik tersebut dimaksudkan untuk merinci persyaratan transparansi dan keselamatan dalam AI Act yang disahkan tahun lalu, dan dijadwalkan mulai berlaku bulan depan

Gambaran umum kode praktik AI Uni Eropa

  • Komisi Eropa merilis kode praktik final untuk model AI tujuan umum
  • Masing-masing perusahaan dapat secara sukarela memutuskan apakah akan menandatangani kode tersebut
  • Tujuan kode ini adalah menyediakan kerangka kerja untuk kepatuhan terhadap AI Act serta memastikan transparansi dan keselamatan teknologi AI

Respons industri dan isu utama

  • Kaplan dari Meta mengkritik bahwa "kode ini diatur secara berlebihan, sehingga akan menjadi hambatan serius bagi pengembangan model AI dan pertumbuhan bisnis di Eropa"
  • Sejumlah perusahaan besar seperti ASML dan Airbus menandatangani surat yang meminta penundaan penerapan selama dua tahun, menunjukkan sikap kritis
  • Sebaliknya, OpenAI secara resmi menyatakan niat untuk berpartisipasi dalam kode praktik Eropa tersebut

Pergantian kepala kebijakan global Meta

  • Joel Kaplan ditunjuk sebagai kepala kebijakan global Meta mulai awal 2025
  • Sebelumnya, ia pernah menjabat sebagai wakil presiden kebijakan AS di Facebook dan bekerja di pemerintahan George W. Bush

2 komentar

 
xguru 2025-07-20

Penjelasan draf pertama EU AI Act oleh Latham & Watkins yang disebutkan dalam komentar Hacker News di bawah ini

European Commission Releases First Draft of General-Purpose AI Code of Practice

  • EU AI Act mulai berlaku pada 1 Agustus 2024, dan kewajiban terkait akan diterapkan secara bertahap
  • AI Office di bawah Komisi memimpin penyusunan code of practice, dengan target penyelesaian pada Mei 2025 dan mulai berlaku pada 2 Agustus
  • Pada 14 November 2024, EC pertama kali merilis draf code of practice untuk AI serbaguna
  • Draf tersebut menyajikan tujuan, tindakan, dan indikator kinerja utama (KPI) yang jelas, selaras dengan prinsip dan nilai UE

Poin utama dalam draf EU AI Act

Transparansi

  • Transparansi adalah prinsip inti dalam code of practice
  • Penyedia model GPAI harus mendokumentasikan dan memelihara informasi berikut
    • informasi tentang model itu sendiri
    • jenis dan penggunaan sistem AI yang dapat diintegrasikan
    • kebijakan penggunaan yang diizinkan
    • elemen inti dari lisensi model
    • spesifikasi desain dan proses pelatihan
    • metode pengujian dan validasi
  • Informasi di atas harus diberikan bila diminta oleh AI Office dan otoritas nasional, atau oleh penyedia sistem AI
  • Jika memungkinkan, pengungkapan informasi kepada publik juga dianjurkan

Kepatuhan hak cipta

  • Kepatuhan terhadap hak cipta UE dan hak terkait ditekankan
  • Penyedia model GPAI harus menetapkan kebijakan hak cipta internal yang komprehensif sepanjang seluruh siklus hidup
  • Sebelum membuat kontrak dataset dengan pihak ketiga, diperlukan due diligence hak cipta serta verifikasi kepatuhan pemegang hak menurut Article 4(3)
  • Penyedia GPAI selain SME perlu mengambil langkah pencegahan yang wajar agar model tidak menghasilkan output yang melanggar hak cipta
  • Saat menyediakan model, disarankan agar syarat kontrak mewajibkan pihak lawan menjanjikan langkah pencegahan terhadap pelanggaran hak cipta berulang

Text and Data Mining (TDM)

  • Saat melakukan TDM, ada kewajiban untuk memastikan hak akses yang sah atas konten yang dilindungi hak cipta
  • Hanya gunakan crawler yang mematuhi Robot Exclusion Protocol
  • Perlu berhati-hati agar pengecualian crawler tidak berdampak negatif pada ketercarian konten di mesin pencari
  • Secara aktif merespons penandaan pemegang hak yang dapat dibaca mesin
  • Bekerja sama dalam pengembangan standar bagi pemegang hak
  • Diperlukan langkah yang wajar untuk mencegah crawling dari sumber pembajakan ilegal

Transparansi kepatuhan hak cipta

  • Ada kewajiban untuk mengungkapkan langkah terkait hak cipta dan kepatuhan terhadap pemegang hak
  • Perlu menyediakan satu titik kontak agar pemegang hak dapat mengajukan keberatan
  • Sumber data pelatihan, pengujian, dan validasi serta informasi hak akses harus diberikan kepada AI Office

Klasifikasi risiko sistemik

  • Penyedia GPAI harus terus mengevaluasi dan menangani risiko berdasarkan kerangka klasifikasi risiko sistemik
  • Item risiko utama:
    • kejahatan siber
    • risiko kimia, biologis, radiologis, dan nuklir
    • hilangnya kendali atas model
    • otomatisasi untuk tujuan riset dan pengembangan AI
    • persuasi dan manipulasi skala besar
    • diskriminasi skala besar

Kerangka manajemen risiko sistemik

  • Penyedia model GPAI yang teridentifikasi memiliki risiko sistemik harus membangun kerangka keselamatan dan keamanan
  • Diperlukan dokumentasi dan struktur tata kelola (termasuk evaluasi oleh pakar independen) untuk memperkuat transparansi dan akuntabilitas
  • Langkah seperti pelaporan insiden, perlindungan whistleblower, dan transparansi publik juga disebutkan
 
GN⁺ 2025-07-20
Komentar Hacker News
  • Bukan hanya Meta, 40 perusahaan Eropa juga meminta UE menunda penerapan AI Act selama 2 tahun dengan alasan implementasinya tidak jelas. Code of Practice kali ini adalah standar sukarela dan cakupannya lebih luas daripada hukum yang sebenarnya. UE mengisyaratkan bahwa jika ikut serta secara sukarela, regulasinya bisa lebih ringan. Namun, Meta tampaknya menilai persetujuan sukarela seperti ini tidak memberi manfaat nyata karena bagaimanapun mereka tetap akan menjadi objek regulasi dalam semua aspek. Poin penting dalam aturan tersebut adalah penyedia model juga harus bertanggung jawab jika mitra menggunakannya secara tidak semestinya. Ini adalah tuntutan yang sangat berat bagi open source. Misalnya, penyedia GPAI harus menyiapkan langkah yang wajar untuk mencegah pelanggaran hak cipta, dan juga didorong untuk menegaskan secara kontraktual bahwa mitra harus mematuhi langkah pencegahan tersebut. Lihat penjelasan Latham & Watkins untuk detailnya

    • Jika membaca kutipannya, kita bisa memahami konteks mengapa UE membuat klausul pengecualian yang mengizinkan materi yang dilindungi hak cipta digunakan sebagai data pelatihan tanpa lisensi. Meski ada kesulitan dalam penerapannya, menurut saya mereka mencoba mencari keseimbangan yang cukup elegan.

    • Saya rasa standar ini masuk akal. Bahkan untuk model AI open source pun, kita bisa memasukkan klausul lisensi seperti “mengambil langkah yang sesuai agar tidak berulang kali menghasilkan keluaran yang identik atau mirip dengan konten berhak cipta”. Ini hukum Eropa, bukan hukum AS, dan konsep “wajar (reasonable)” ditafsirkan hakim dengan menimbang kepentingan kedua belah pihak, jadi tidak diputuskan hanya dari tafsir harfiah.

    • Sungguh bikin frustrasi melihat industri baru seperti ini diatur terburu-buru saat kita bahkan belum tahu bagaimana pasar akan berkembang.

    • Saya tidak menganggap standar ini berlebihan, karena jika seseorang membuat model yang mereproduksi banyak karya berhak cipta apa adanya, maka distribusinya memang tidak seharusnya diizinkan. Itu pun tidak akan diizinkan pada software biasa. Hanya karena ini model AI bukan berarti harus ada pengecualian.

    • Bagian yang menyebut penyedia model harus bertanggung jawab atas penyalahgunaan oleh mitra sebenarnya tidak ada dalam teks hukum asli[0], melainkan ada di bab hak cipta dalam Code of Practice. Namun, Code ini tidak menambahkan kewajiban baru di atas hukum, melainkan memberi contoh tentang ‘bagaimana’ hukum itu bisa dipatuhi. Misalnya, hukum mewajibkan penghormatan terhadap ‘machine-readable opt-out’, tetapi tidak menjelaskan cara spesifiknya; di dalam code, penggunaan robots.txt diberikan sebagai contoh. Hal terkait hak cipta dinyatakan dalam measure 1.4, yaitu a) mengambil langkah teknis agar model tidak mereproduksi konten yang melanggar hak cipta, b) menjelaskan dengan tegas dalam syarat penggunaan atau dokumentasi bahwa penggunaan yang melanggar hak cipta tidak diizinkan. Untuk model open source, cukup memberi tahu hal itu dalam dokumentasi. Code of Practice ini hanya berlaku jika ditandatangani secara sukarela; bukan berarti kalau orang lain mengambil model saya lalu menandatanganinya, tanggung jawabnya jadi muncul pada saya. Ini seperti memublikasikan plugin Photoshop di bawah GPL tidak lantas memaksa source Photoshop dibuka. Hukum ini juga punya cukup banyak pengecualian untuk open source. Alasan Meta menolak tampaknya karena EU AI Office tidak mengakui Meta AI sebagai open source, sehingga mereka tidak mendapat pengecualian tersebut. Lihat tautan regulasi dan tautan Code of Practice untuk teks lengkapnya.

  • Saya akui, hanya dari reaksi Meta saja muncul prasangka bahwa AI Act kali ini mungkin justru berisi hal-hal yang memang kita butuhkan. Saya sebenarnya tidak tahu persis isinya, tetapi tetap jadi berpikir begitu.

    • “AI Code of Practice” terdiri dari 3 bab, dan bisa dilihat di sini serta riwayat drafnya. Saya belum membaca seluruh teksnya, dan lebih familier dengan AI Act sebelumnya (artificialintelligenceact.eu). Dugaan saya, Meta terutama mempermasalahkan bab 2, yaitu bagian hak cipta, khususnya yang berbenturan dengan praktik crawling tanpa izin atas materi berhak cipta. Apakah ini benar-benar termasuk ‘fair use’ juga masih belum jelas hingga sekarang.

    • Saya tidak berpikir bahwa hanya karena suatu perusahaan ‘jahat’, maka argumennya otomatis salah.

  • Bagi yang ingin ringkasan panduan, bisa lihat di sini. Jelas ini aturan yang berat. Kalau dilihat isinya, memang tampak lebih menguntungkan pemegang hak cipta besar, pengacara, dan birokrat.

    • Regulasi seperti ini pada akhirnya bisa menjadi jebakan bagi perusahaan Eropa. Begitu melewati skala tertentu, beban regulasinya melonjak tajam, sehingga bagi perusahaan AI Eropa kecil atau rintisan, melewati ambang pertumbuhan itu sendiri jadi menakutkan. Sementara itu, big tech AS dan Tiongkok bisa berinovasi jauh lebih cepat dalam lingkungan yang lebih longgar, menaikkan level AI sekaligus memperbesar modal. Akibatnya, mereka bisa masuk ke pasar UE dengan produk yang lebih matang dan dana yang lebih tebal, sehingga persaingan yang sesungguhnya justru akan menguntungkan mereka.

    • Eropa belum pernah benar-benar membangun industri AI, tetapi sudah mencoba mengatur seluruh industrinya dengan detail berlebihan. Ini sudah seperti regulasi demi regulasi itu sendiri. Saya sempat berharap laporan daya saing UE dari Draghi akan menjadi titik balik, tetapi kecewa karena UE sama sekali tidak mengubah arahnya. Saya jadi kehilangan kepercayaan pada kebijakan UE.

    • Anda menyebutnya ‘berat’, tapi saya penasaran, bagian mana tepatnya yang menurut Anda begitu membebani?

  • Aturan UE kadang punya kekuatan seperti kebijakan cookie yang membuat seluruh dunia ikut. Biasanya, agar kelompok kecil bisa memaksakan tuntutan kepada mayoritas, biaya mematuhi harus lebih rendah daripada biaya menolak. Tapi AI berbeda. Skalanya terlalu besar dan tidak ada yang akan berhenti. AI tidak akan bisa dihentikan kecuali mungkin oleh perang nuklir.

    • Potensi risiko AI sangat besar. Dari senjata otomatis sampai AGI yang berbahaya, semua bisa dibayangkan. Jerman masih punya trauma soal senapan mesin otomatis dari masa pembagian Jerman Timur dan Barat, dan Ukraina juga sedang mengalami guncangan psikologis serius akibat perang drone. Risiko nyata AI juga jelas ada. Regulasi dan hukum itu penting.

    • Hasil dari hukum cookie hanyalah orang-orang disiksa oleh popup tanpa akhir. Tanpa uBlock, menggunakan web saja terasa menyakitkan. Pelacakan pengguna berpindah ke sisi server, dan perlindungan privasi yang sesungguhnya tidak benar-benar meningkat. Uang yang beredar terlalu besar, jadi industri dengan mudah mengakali regulasi yang lemah seperti ini.

  • Saya kaget melihat begitu banyak komentar yang langsung sejalan dengan regulasi Eropa. Apakah saya satu-satunya yang pada dasarnya melihat regulasi Eropa sebagai sesuatu yang berlebihan dan dirancang buruk?

    • Sampai sekarang, Eropa belum pernah mengeluarkan kebijakan yang benar-benar memecah dominasi big tech AS. Sebagian besar pengguna UE masih bergantung pada Google, Meta, dan Amazon. Tujuan UE tampaknya bukan melawan perusahaan AS secara langsung, melainkan menjaga sopan santun dan beberapa kepentingan keamanan nasional. Terlalu halus, tetapi pada dasarnya posisi itu masuk akal.

    • Jika dilihat dari sisi perlindungan warga, saya penasaran apa sebenarnya buruknya jika regulasi dibuat ketat.

    • Menyebutnya ‘membabi buta’ berarti mengasumsikan bahwa Anda benar dan pihak lain membuat keputusan itu karena tidak tahu. Anda sendiri juga mengatakan ‘pada dasarnya mengasumsikan’, jadi itu sama saja dengan mengkritik diri sendiri.

    • Sebenarnya terasa seperti terlalu banyak pendapat eksternal yang ikut campur untuk menekan Eropa.

    • Justru masalahnya ada pada sikap “pada dasarnya mengasumsikan” itu sendiri. Lebih baik jangan berasumsi dulu, baca langsung materi terkait, lalu bentuk pendapat Anda sendiri. Saya sarankan orang-orang punya pandangannya sendiri alih-alih hanya mengikuti pendapat perusahaan multinasional lintas negara.

  • Saya khawatir UE akan membuat semua LLM dipenuhi popup seperti semua website.

    • Internet sejak awal memang dipenuhi popup dan pola UX pengalih perhatian. Jadi aneh kalau satu-satunya yang dipermasalahkan justru popup yang memberi pengguna kesempatan memilih sendiri untuk menolak pelacakan.

    • Yang mewajibkan popup bukan UE, melainkan perusahaan. Kalau pengelola website mengurangi atau sama sekali menghindari pengumpulan data, popup itu sebenarnya tidak diperlukan. Namun mereka justru rela mengorbankan usability dan memasang popup yang tak bermakna. Hasilnya adalah kekacauan sekarang. Setidaknya situs yang tidak mengumpulkan apa pun, misalnya blog Fabien Sanglard, sama sekali tidak punya popup. Kesalahan UE adalah tidak mengantisipasi penyalahgunaan semacam ini. Hasil akhirnya memang sangat buruk.

    • Sebenarnya hal seperti ini bisa dilakukan tanpa popup, tetapi semua orang hanya sibuk meniru perusahaan besar. Meniru lebih diprioritaskan daripada pengalaman pengguna.

    • Saya benar-benar benci popup seperti ini. Melihat situasi ini dibiarkan terus menunjukkan betapa lambannya para penanggung jawab.

  • Saya menduga tujuannya memang untuk menghambat pertumbuhan Meta. Dari postingan LinkedIn, Meta malah mengatakan mereka khawatir pertumbuhan perusahaan Eropa yang akan terhambat. Mereka menyebut bahwa “regulasi yang berlebihan seperti ini menghambat pengembangan/distribusi model frontier AI di Eropa, dan juga melemahkan perusahaan Eropa yang ingin membangun bisnis di atasnya”.

    • Saat Meta berkata bahwa mereka “berbagi kekhawatiran dengan perusahaan lain”, makna sebenarnya mungkin cuma mereka sedang memakai argumen yang paling nyaman untuk PR pada saat itu. Pada kenyataannya, mereka sama sekali tidak peduli pada kepentingan publik atau keuntungan perusahaan lain, dan hanya memikirkan cara mengumpulkan lebih banyak data serta menjual lebih banyak iklan.

    • Kalau benar-benar menelusuri Code of Practice, tidak ada bagian yang terasa sangat berlebihan atau layak disebut ‘penyalahgunaan wewenang yang berlebihan’. Pada akhirnya yang diminta hanyalah penyedia model bertindak transparan, dan ini kebetulan bertabrakan dengan cara Meta selama ini beroperasi.

  • Dalam postingan LinkedIn Kaplan, sama sekali tidak disebut bagian kebijakan mana yang bermasalah. Ungkapan “menghambat pertumbuhan” pun sebenarnya bisa saja hanya berarti hal yang cukup sederhana, seperti kewajiban opt-in saat meluncurkan fitur baru.

    • Rasanya alasan seperti ini selalu muncul berulang setiap kali ada regulasi apa pun.
  • Lingkungan global makin terbelah, dan saya rasa Meta ikut berperan dalam memperbesar ketidakpuasan dan konflik. Suatu hari saya ingin pergi ke Eropa dan bebas memakai open source LLM.

  • Saya berharap diskusi ini tidak berujung pada kesimpulan bahwa “kalau ada regulasi maka perkembangan AI akan berhenti”. Hak cipta dan perlindungan sumber informasi juga harus diberi nilai yang cukup.