- Kesaksian CEO Meta Mark Zuckerberg dalam sidang dengar pendapat Senat AS 2024 bertentangan dengan dokumen internal, dan sebuah laporan mengungkap adanya pernyataan palsu yang disengaja
- The Tech Oversight Project menyatakan, setelah menganalisis dokumen nonpublik dan laporan para ahli, bahwa Zuckerberg memelintir fakta dalam pernyataannya terkait perlindungan anak, kesehatan mental, dan keamanan konten
- Menurut materi internal, Meta mengetahui namun membiarkan berbagai masalah sistemik seperti strategi akuisisi pengguna di bawah 13 tahun, pembiaran prostitusi, dan penyembunyian riset nonpublik
- Laporan tersebut menyoroti bahwa Meta mempromosikan fitur keselamatan remaja, tetapi dalam praktiknya sebagian besar tidak efektif, sementara riset internal justru menunjukkan memburuknya kesehatan mental dan meningkatnya sifat adiktif
- Kelompok itu menegaskan perlunya langkah legislasi seperti ‘Kids Online Safety Act’ untuk memperbaiki perilaku semacam ini
Gambaran umum laporan Tech Oversight Project
- Laporan yang diumumkan di Washington D.C. ini membandingkan kesaksian Zuckerberg dalam sidang Komite Kehakiman Senat 2024 dengan dokumen internal yang baru diungkap
- Dokumen-dokumen itu menunjukkan bahwa Zuckerberg berbohong kepada Kongres, dan bahwa Meta menutupi kegagalannya dalam melindungi remaja
- Kelompok tersebut membuka microsite ‘Big Tech on Trial’ yang mengumpulkan bukti terkait dan akan terus diperbarui selama proses persidangan berlangsung
- Direktur eksekutif Sacha Haworth mengatakan, “Meta selama ini bersembunyi di balik Section 230, dan sekarang Kongres harus bertindak”
Ketidaksesuaian antara pernyataan sidang dan bukti internal
1. Terkait fitur keselamatan remaja
- Zuckerberg mengatakan bahwa mereka “melakukan upaya terdepan di industri untuk melindungi remaja,” tetapi
menurut penyelidikan dari kelompok seperti Fairplay, dari 53 fitur keselamatan Instagram,
- 64% dinonaktifkan atau tidak berlaku,
- 19% memiliki efektivitas terbatas,
- hanya 17% yang berfungsi normal
- Laporan itu menyimpulkan bahwa “sebagian besar fitur gagal melindungi remaja”
2. Desain produk dan keselamatan anak
- Zuckerberg mengatakan bahwa “dana kompensasi korban bukanlah peran saya,” tetapi
laporan pengadilan dari ahli Tim Estes menyatakan bahwa platform Meta dirancang tanpa mempertimbangkan keselamatan anak
- Verifikasi usia yang lemah, kontrol orang tua yang tidak efektif, serta fitur infinite scroll, autoplay, dan notifikasi disebut sebagai masalah
3. Penyangkalan dampak kesehatan mental
- Zuckerberg mengatakan bahwa “bukti ilmiah tidak mendukung klaim bahwa media sosial berbahaya,” tetapi
Facebook Files dari WSJ dan riset internal melaporkan bahwa Instagram memperburuk penurunan rasa percaya diri, kecemasan, dan risiko gangguan makan pada remaja
- Dampak psikologis negatif itu terutama terkonsentrasi pada remaja perempuan
4. Konten seksual dan perdagangan manusia
- Zuckerberg mengatakan bahwa mereka “tidak mengizinkan konten seksual,” tetapi
menurut dokumen internal, Meta menjalankan kebijakan yang mengizinkan akun prostitusi hingga 17 pelanggaran
- Pada 2020, 79% perdagangan seks anak terjadi di platform Meta,
- dan di antara pengguna minor Instagram, 22% melaporkan pernah mengalami kontak seksual
5. Klaim larangan pengguna di bawah 13 tahun
- Zuckerberg mengatakan bahwa “mereka yang berusia di bawah 13 tahun tidak dapat menggunakan layanan,” tetapi
dokumen internal memuat strategi penargetan berdasarkan usia yang mencakup ‘Kid’ usia 6–10 tahun dan ‘Tween’ usia 10–13 tahun
- Dokumen ‘Tweens Competitive Audit’ dan ‘Youth Privacy’ menegaskan target untuk menguasai pasar anak-anak
6. Penyembunyian riset kesehatan mental
- Dalam ‘deactivation study’ internal, Meta menemukan bahwa menghentikan penggunaan media sosial menurunkan kecemasan dan depresi, tetapi
publikasinya dihentikan karena hasilnya negatif
- Ada catatan pernyataan karyawan yang khawatir perusahaan bisa “terlihat seperti perusahaan rokok”
7. Cacat pada Messenger Kids
- Zuckerberg mengatakan bahwa “Messenger Kids lebih aman,” tetapi
bug pada 2019 memungkinkan anak-anak melakukan group chat dengan pengguna yang tidak disetujui
- Meta diam-diam memperbaikinya, tetapi kemudian terungkap lewat laporan The Verge
8. Klaim kerja sama dengan orang tua dan kebijakan internal
- Zuckerberg mengatakan bahwa mereka “melindungi anak bersama orang tua,” tetapi
email internal mencatat kebijakan menghindari pemberitahuan kepada orang tua dengan alasan “jika orang tua diberi tahu, produk akan rusak”
- Email lain juga memuat kalimat, “kita harus mengoptimalkan agar ponsel bisa dilihat diam-diam saat pelajaran kimia”
9. Penilaian nilai remaja
- Dalam email internal tahun 2018, nilai seumur hidup remaja usia 13 tahun dihitung sebesar 270 dolar
- Termasuk kekhawatiran eksekutif bahwa “hingga 30 juta pengguna remaja bisa hilang pada 2030”
Kasus tambahan Meta
1. Riset tentang sifat adiktif Instagram
- Adam Mosseri mengatakan bahwa “dampak aplikasi sangat kecil,” tetapi
riset internal 2019 berjudul ‘Teen Mental Health: Creatures of Habit’ menyatakan bahwa
- “remaja tidak bisa mematikan Instagram meski mereka ingin,”
- dan “penggunaan adiktif serta tekanan untuk terlihat sempurna adalah inti dari kecemasan”
2. Efektivitas sistem moderasi konten
- Meta dalam laporan 2023 mengklaim 99% materi eksploitasi anak dihapus secara otomatis, tetapi
whistleblower internal Arturo Béjar mengungkap bahwa tingkat deteksi sebenarnya kurang dari 5%
- Juga terungkap bahwa eksekutif mengabaikan usulan perbaikan desain dan membubarkan tim riset
Kesimpulan
- Laporan itu menunjukkan bahwa Meta telah berulang kali gagal melindungi remaja dan membuat pernyataan palsu
- Laporan tersebut memperingatkan bahwa tanpa langkah pemaksaan legislasi, perusahaan tidak akan memperbaiki diri secara sukarela
- Secara khusus, pengesahan Kids Online Safety Act ditekankan sebagai sarana kunci untuk melindungi anak-anak dan remaja
1 komentar
Opini Hacker News
Misalnya, agak ambigu jika langsung menyatakan tingkat investasi pada alat perlindungan sebagai kebohongan. Mereka mungkin sudah banyak berinvestasi tetapi hasilnya tetap tidak efektif
Saat dibaca, memang ada kebohongan yang nyata, tetapi sebagian lainnya terlihat hanya sebagai perbedaan interpretasi. Ungkapan yang berada di wilayah abu-abu seperti ini sebaiknya dihapus atau disajikan sebagai “sulit dipercaya”
Baru-baru ini saat melihat Reels, aku menemukan konten dewasa yang jelas dan melaporkannya, tetapi hasilnya “tidak melanggar kebijakan”. Laporan yang masuk mungkin banyak, tetapi Meta jelas gagal mencapai target moderasi konten yang mereka klaim
Misalnya, “Meta merencanakan produk untuk anak usia 6–13 tahun” sebenarnya merujuk pada slide untuk Messenger Kids, dengan tujuan kepatuhan COPPA.
Lalu kritik bahwa “mereka bilang membantu orang tua tetapi justru membuat remaja bisa berkomunikasi diam-diam dari orang tua” sebenarnya muncul dalam konteks pembahasan masalah desain fitur live streaming.
Aku juga tidak suka Facebook, tetapi aku lebih percaya pada perkataan Mark Zuckerberg daripada artikel ini
Dalam situasi sekarang, itu bahkan masih bisa dianggap sebagai janji yang ditepati
Ketentuan terkait dirangkum dalam dokumen Congress.gov.
Jika memberi pernyataan palsu, ancamannya bisa sampai 5–8 tahun penjara, terutama jika terkait perdagangan seksual atau eksploitasi anak maka bisa sampai 8 tahun
Dari contoh-contoh seperti ini, prosedur bersumpah untuk mengatakan yang sebenarnya justru terasa membuat kebohongan jadi lebih kuat
Lihat skandal Watergate, skandal Clinton–Lewinsky
dengan mencontohkan kontroversi verifikasi usia di Discord, ada kekhawatiran bahwa regulasi semacam itu pada akhirnya akan memaksa verifikasi identitas untuk semua pengguna
Bahkan jika seseorang tidak memakai media sosial, tempat seperti Hacker News pun secara definisi hukum bisa diklasifikasikan sebagai media sosial
Jika Facebook berbahaya bagi remaja, dan Meta mengetahuinya tetapi membiarkannya, maka regulasi adalah langkah yang tak terhindarkan