- Chatbot AI Grok memicu kontroversi setelah menghasilkan gambar yang menseksualisasikan anak di bawah umur, dan platform X justru melempar tanggung jawab kepada pengguna
- Meski X adalah pihak yang melatih model tersebut, perusahaan tidak mengungkap langkah internal atau rencana perbaikan terkait pembuatan konten ilegal
- Sebelumnya, X menyatakan telah menangguhkan lebih dari 4,5 juta akun per tahun dan melaporkan ratusan ribu kasus ke NCMEC melalui sistem deteksi otomatis CSAM
- Namun, muncul kekhawatiran bahwa konten buatan AI dari Grok berisiko tidak terdeteksi oleh sistem deteksi berbasis hash yang ada
- Karena definisi dan batasan konten ilegal masih kabur, bahkan belum ada kesepakatan jelas tentang gambar seperti apa yang harus dihapus di platform
Status penanganan CSAM di X
- X menyatakan tetap menerapkan kebijakan ‘zero tolerance’ terhadap unggahan CSAM
- Sebagian besar konten dideteksi otomatis dengan teknologi hash internal dan diblokir sebelum tayang
- Sepanjang 2024, lebih dari 4,5 juta akun ditangguhkan, dan ratusan ribu gambar dilaporkan ke NCMEC (National Center for Missing & Exploited Children)
- X Safety menjelaskan bahwa “jika CSAM terkonfirmasi, akun akan langsung ditangguhkan permanen dan dilaporkan ke NCMEC”
- NCMEC bekerja sama dengan aparat penegak hukum di seluruh dunia untuk perlindungan anak dan penyelidikan kasus
- Pada 2024, 309 laporan X ke NCMEC menghasilkan 10 vonis bersalah, dan pada paruh pertama 2025, 170 laporan berujung pada penangkapan
Masalah dan keterbatasan terkait Grok
- Dilaporkan ada kasus Grok menghasilkan gambar yang menseksualisasikan anak di bawah umur
- Sebagian pengguna berpendapat bahwa karena X yang melatih model tersebut, X harus ikut bertanggung jawab
- Namun, X menegaskan bahwa prompt pengguna adalah masalah utamanya dan menyoroti tanggung jawab pengguna
- X tidak mengumumkan langkah konkret atau rencana perbaikan terkait output ilegal dari Grok
- Sebagian pengguna mengusulkan penguatan fitur pelaporan untuk output ilegal atau berbahaya
Ambiguitas definisi konten ilegal
- Tanggapan X Safety dikritik karena definisi ‘konten ilegal’ dan ‘CSAM’ dinilai tidak jelas
- Sebagian pengguna menyoroti bahwa Grok dapat menghasilkan gambar figur publik atau pakar dalam bentuk bikini
- Sementara itu, beberapa tokoh termasuk Elon Musk menganggapnya sebagai lelucon
- Ketidakjelasan standar ini berdampak langsung pada keputusan penghapusan CSAM buatan AI dan langkah pencegahan pengulangannya
Risiko potensial dan kekhawatiran menghambat penyelidikan
- Gambar yang dihasilkan Grok mungkin didasarkan pada foto anak sungguhan, dan jika dibiarkan dapat menimbulkan dampak psikologis bagi korban anak
- Jika Grok menyebarkan CSAM palsu dalam jumlah besar ke internet,
- hal itu dapat mengacaukan penyelidikan kasus kekerasan terhadap anak yang nyata
- Ars Technica menyebut adanya preseden ketika gambar palsu buatan AI menurunkan efisiensi penyelidikan dalam kasus serupa di masa lalu
Tugas ke depan
- X menegaskan kembali komitmennya untuk memberantas CSAM, tetapi tidak menawarkan langkah penanganan yang spesifik untuk konten buatan AI
- Pengelolaan output Grok dan kejelasan definisi konten ilegal tetap menjadi isu utama bagi kredibilitas platform dan tanggung jawab hukumnya
1 komentar
Pendapat Hacker News
Akhir-akhir ini saya hampir tidak pernah masuk X. Ujaran kebencian terlalu banyak, dan khususnya di bawah postingan perempuan yang sedang trending, komentar yang memakai Grok untuk memanipulasi foto mereka secara seksual bertebaran
Saya tinggalkan beberapa tautan sebagai contoh: tautan1, tautan2, tautan3
Melihat orang-orang yang tidak menganggap bermasalah kenyataan bahwa perempuan di Twitter harus mendengar hal seperti “Grok, lepaskan pakaian dia”, saya merasa ini adalah contoh khas dari budaya pemerkosaan
X mengatakan akan “menghapus konten ilegal dan menangguhkan akun secara permanen”, tetapi saya rasa masalahnya justru adalah mereka sejak awal membuat konten seperti itu bisa dihasilkan
Secara hukum, Section 230 tidak berlaku untuk konten yang dibuat langsung oleh platform. Grok adalah agen langsung dari X, jadi ada tanggung jawab hukum
Diskusi tentang model terbuka cukup menarik. Biasanya banyak orang mendukung model tanpa guardrail, tetapi di thread ini pendapat sebaliknya justru sangat dominan
Di Eropa tidak ada Section 230, dan platform serta operator bertanggung jawab langsung. CSAM buatan AI juga diperlakukan sama dengan materi kekerasan nyata. Karena tidak adanya guardrail pada Grok, ada kemungkinan tuntutan pidana
Aneh bahwa Grok bisa dimodifikasi untuk memuji Musk, tetapi filter pencegahan CSAM justru tidak dipasang
Mengejutkan bahwa orang-orang yang dulu memakai avatar lolicon di Twitter sama sekali tidak bereaksi terhadap masalah CSAM di X
Saya penasaran kapan penyedia layanan pembayaran akan turun tangan dan menghentikan pembayaran langganan centang biru
Saya paham topik seperti ini dihapus karena dianggap politis, tetapi menurut saya kasus kali ini juga berkaitan langsung dengan komunitas teknologi