- Pekerja Sama di Kenya yang meninjau konten kacamata pintar untuk pelatihan AI terlibat dalam sengketa yang diperkirakan akan berujung pada pemutusan hubungan kerja terhadap 1.108 orang setelah kontrak Meta dihentikan
- Penghentian kontrak terjadi kurang dari dua bulan setelah para pekerja mengatakan mereka melihat adegan pengguna menggunakan toilet dan berhubungan seksual dalam video dari kacamata Meta
- Meta mengatakan Sama gagal memenuhi standar operasional, sementara Sama membantah dengan menyatakan telah memenuhi standar operasional, keamanan, dan kualitas untuk pekerjaan klien termasuk Meta, dan tidak pernah menerima pemberitahuan bahwa standar tersebut tidak terpenuhi
- Meta menyatakan bahwa konten kacamata pintar yang dibagikan pengguna dengan Meta AI kadang-kadang dapat ditinjau oleh pekerja alih daya, dan bahwa peninjauan manusia untuk meningkatkan performa produk dilakukan dengan persetujuan pengguna yang jelas
- ICO Inggris dan Komisioner Perlindungan Data Kenya merespons kekhawatiran privasi, dan bersama kontroversi kontrak moderasi konten Facebook sebelumnya milik Sama, hal ini menyoroti risiko kerja data AI
Isu seputar berakhirnya kontrak Meta dan Sama
- Meta mengakhiri kontrak besar dengan Sama yang digunakan untuk pelatihan AI, dan Sama memperkirakan keputusan ini akan menyebabkan 1.108 orang kehilangan pekerjaan
- Penghentian kontrak terjadi kurang dari dua bulan setelah pekerja Sama yang berbasis di Kenya mengatakan mereka melihat adegan pengguna menggunakan toilet dan berhubungan seksual dalam video dari kacamata pintar Meta
- Meta mengatakan kontrak diakhiri karena Sama tidak memenuhi standar operasional perusahaan
- Sama membantah dengan menyatakan bahwa mereka secara konsisten memenuhi standar operasional, keamanan, dan kualitas yang diminta untuk pekerjaan klien termasuk Meta, dan tidak pernah diberi tahu bahwa mereka gagal memenuhi standar
- Organisasi pekerja di Kenya menilai keputusan Meta diambil karena pernyataan terbuka para karyawan, tetapi Meta tidak menjawab langsung dugaan tersebut
Peninjauan video kacamata pintar dan masalah privasi
- Dalam investigasi media Swedia Svenska Dagbladet dan Goteborgs-Posten pada akhir Februari, para pekerja anonim mengungkapkan bahwa mereka meninjau video yang direkam dengan kacamata Meta
- Salah satu pekerja mengatakan, “Kami melihat segalanya, dari ruang tamu sampai tubuh telanjang,” dan menyebut video itu juga mencakup adegan orang menggunakan toilet atau berhubungan seksual
- Meta mengakui bahwa konten kacamata pintar yang dibagikan pengguna dengan Meta AI kadang-kadang dapat ditinjau oleh pekerja alih daya
- Meta menilai peninjauan ini bertujuan untuk meningkatkan pengalaman pelanggan dan merupakan praktik yang umum di perusahaan lain juga
- Dalam pernyataan kepada BBC, Meta mengatakan foto dan video tidak bersifat publik bagi pengguna, dan bahwa peninjauan manusia atas konten AI untuk meningkatkan performa produk dilakukan dengan persetujuan pengguna yang jelas
Regulator dan risiko penggunaan produk
- Segera setelah laporan dari Swedia itu, regulator data Inggris ICO menyebut laporan tersebut “mengkhawatirkan” dan mengirim surat kepada Meta
- Komisioner Perlindungan Data Kenya juga memulai penyelidikan atas kekhawatiran privasi yang muncul dari kacamata pintar tersebut
- Meta pada September memperkenalkan lini kacamata berbasis AI bersama Ray-Ban dan Oakley
- Fitur-fiturnya mencakup terjemahan teks, menjawab pertanyaan tentang objek yang sedang dilihat pengguna, dan dapat sangat berguna khususnya bagi pengguna tunanetra atau dengan low vision
- Seiring meningkatnya popularitas perangkat ini, kekhawatiran penyalahgunaan juga membesar, dan di Kenya perangkat ini juga dikaitkan dengan perekaman tanpa persetujuan terhadap perempuan
- Kacamata Meta dirancang agar lampu indikator di sudut bingkai menyala saat kamera internal sedang merekam
Kerja pelabelan data dan kontroversi kontrak sebelumnya
- Pekerja Sama sebagai data annotator menambahkan label manual pada konten agar Meta AI dapat menafsirkan gambar, dan juga meninjau transcript interaksi dengan AI
- Menurut salah satu pekerja, kacamata seorang pria terus merekam di kamar tidur, lalu merekam adegan seorang perempuan yang tampaknya adalah istrinya sedang melepas pakaian
- Sama adalah perusahaan outsourcing yang berkantor pusat di AS; perusahaan ini bermula dari organisasi nirlaba yang bertujuan memperluas lapangan kerja melalui penyediaan pekerjaan teknologi, dan kini beroperasi sebagai B-corp “ethical”
- Kontrak moderasi konten Facebook sebelumnya antara Meta dan Sama juga memicu kritik serta langkah hukum dari mantan karyawan, dan sebagian karyawan mengatakan mereka terpapar konten eksplisit dan traumatis
- Sama kemudian mengatakan mereka menyesal pernah mengambil pekerjaan tersebut
- Naftali Wambalo dari Africa Tech Workers Movement juga berhubungan dengan pekerja pada kontrak kacamata pintar dan menilai Meta tidak ingin fakta bahwa konten kacamata pintar ditinjau oleh pekerja manusia diketahui publik
- Wambalo menggambarkan standar yang disebut Meta lebih mirip “standar menjaga kerahasiaan”
- Meta sebelumnya pernah mengatakan bahwa pengguna dapat mengetahui kemungkinan adanya peninjauan manusia melalui ketentuan layanan
- Mercy Mutemi dari Oversight Lab menilai pernyataan Meta seharusnya menjadi peringatan bagi pemerintah Kenya, dan bahwa fondasi yang dipromosikan sebagai pintu masuk ke ekosistem AI itu sangat rapuh
1 komentar
Komentar Hacker News
Meta membatalkan kontrak dengan perusahaan outsourcing yang ditugasi mengklasifikasikan konten kacamata pintarnya, dan itu terjadi setelah para karyawan perusahaan tersebut membocorkan masalah privasi serius pada konten yang mereka klasifikasikan
OpenAI pernah menyerahkan klasifikasi CSAM kepada mereka, dan pada 2022 Sama memutus hubungan dengan OpenAI sebagai klien: https://time.com/6247678/openai-chatgpt-kenya-workers/
Empat tahun sejak itu, dan tiga tahun sejak laporan tersebut terbit, cara perusahaan teknologi beroperasi masih belum membaik sama sekali
Jangan berbicara atau berinteraksi dengan mereka, dan bahkan tidak disarankan berada di ruang yang sama
Meta mengatakan Sama gagal memenuhi standar mereka, dan Sama membantah kritik tersebut
Melindungi pelaku kejahatan sambil mempermalukan whistleblower hanyalah ciri rezim diktator dan oligarki
Tidak peduli di negara mana perusahaan outsourcing berada; jika kejahatan sudah menjadi global, perlindungan whistleblower juga harus global
Seorang pekerja dikabarkan berkata, “kami melihat semuanya, dari ruang tamu sampai tubuh telanjang”
Meta mengatakan ini demi meningkatkan pengalaman pelanggan dan merupakan praktik umum di perusahaan lain, tetapi saya sampai bertanya-tanya apakah saya membacanya dengan benar
Mungkin ini salah satu pernyataan paling ganjil yang pernah saya lihat di internet dalam 20 tahun
Rasanya Meta bahkan tidak membaca apa yang mereka katakan sendiri
Seingat saya alasannya untuk analisis masalah semacam itu
Sampai sekarang saya masih mendapat reaksi aneh kalau bilang saya tidak memakai WhatsApp, tetapi semua aset Meta sudah tercemar jadi saya tidak memakainya
Saya tidak tahu mana yang lebih buruk di sini: Meta merekam video dari smart glasses pelanggan, atau memecat orang-orang yang membicarakannya
Memang benar kita harus menekan perusahaan seperti ini agar tidak bertindak seperti sampah, tetapi pada akhirnya mereka hanya bisa berbuat sampah dengan data yang diserahkan orang kepada mereka
Ada pengecualian seperti Flock, yang berbuat sampah dengan data pengawasan “publik”
Saya tahu budaya kita sudah sedemikian rusak sampai momen intim sambil memakai kacamata pengawas korporat bisa dianggap normal, tetapi saya tidak mengerti bagaimana orang bisa percaya sampai sejauh ini
Lebih luas lagi, saya juga tidak mengerti kenapa orang mau memakai kamera terhubung internet yang jelas-jelas akan dipantau oleh Meta
Saya rasa masalah privasi dan keamanan yang rumit di sekitar smart glasses dan teknologi “pribadi” lain sebenarnya bisa ditangani dengan baik oleh perusahaan yang hati-hati, serius, dan cepat merespons
Itu sebabnya saya sama sekali tidak akan menyentuh perangkat pribadi Meta
Seluruh DNA mereka ditulis untuk mengeksploitasi pengguna demi keuntungan
Menurut saya, mereka hanya melihat masalah seperti ini sebagai sesuatu yang perlu ditutupi agar orang tidak menyadari seberapa dalam eksploitasinya; mereka bahkan tidak bisa, dan tidak akan, benar-benar mempertimbangkannya secara serius
Saya penasaran dalam kondisi seperti apa video yang direkam dari kacamata itu diunggah untuk klasifikasi
Mungkin strukturnya adalah ketika pengguna menanyakan sesuatu tentang apa yang sedang mereka lihat melalui kacamata, videonya diunggah untuk klasifikasi guna menghasilkan jawaban
Sepertinya orang mengira “itu cuma AI”, jadi mereka tidak terlalu mengkhawatirkan privasi
Melihat judul ini mengingatkan saya bahwa “row” adalah salah satu kata yang hampir seumur hidup saya ucapkan dengan salah. Baru tahun ini saya tahu pengucapan yang benar
Dalam konteks ini, row berima dengan cow, bukan dough
Contoh rima pertama yang terlintas di kepala saya tadi adalah bow, lalu saya sadar contoh itu juga bermasalah
Ungkapan “dua negara yang dipisahkan oleh bahasa yang sama” memang sangat tepat
https://www.merriam-webster.com/dictionary/row#dictionary-en...
Saya mantan karyawan Meta. Silakan cemooh
Di dalam perusahaan ada 4 tingkat klasifikasi data; 1 adalah informasi ruang publik seperti “langit berwarna biru”, dan 4 adalah data pengguna pribadi atau informasi sensitif jika bocor atau dibagikan
Pada dasarnya saya diberi tahu bahwa semua data pengguna adalah level 4, dan jika Anda melakukan sesuatu tanpa persetujuan yang semestinya, Anda akan langsung dipecat
Selama bootcamp, sering ada cerita bahwa setidaknya satu orang per bulan mengakses data pengguna lalu dikawal keluar gedung dalam hitungan jam
Di bidang riset visual tempat saya bekerja, kami harus melalui proses hukum selama setahun penuh untuk mendapatkan izin merekam video di tempat umum
Kami harus membangun pipeline anonimisasi, jejak audit yang kuat, menghapus data sebanyak mungkin, dan sistem yang menghapus otomatis jika terjadi sesuatu yang salah
Ada juga aturan ketat tentang lokasi penyimpanan data dan siapa yang boleh mengaksesnya
Rekaman “liar” yang mungkin menampilkan orang yang belum menandatangani kontrak sedikit saja tidak bisa dibagikan untuk pekerjaan anotasi karena akan jatuh ke pihak ketiga
Semua orang dan lokasi yang dapat dilacak dalam dataset publik sudah menandatangani surat pelepasan tanggung jawab hukum
Jadi sekarang ketika saya mendengar bahwa data pribadi begitu saja dituangkan ke para anotator dan dipakai sebagai data pelatihan, itu berarti bahkan kontrol paling dasar pun tidak ada
Itu hanya menunjukkan bahwa kalau Zuck atau monetisasi menginginkan sesuatu, aturan tidak berlaku
Saya berharap seluruh industri itu runtuh dengan sendirinya
SWE seharusnya hanya bisa mengakses PII dengan persetujuan eksplisit dari pengguna atau pelanggan, misalnya dalam situasi tiket dukungan
Terutama jika orang itu masih dalam bootcamp, makin sulit dipahami bagaimana mereka bisa mengakses data pengguna yang belum dianonimkan saat pelatihan
Bahkan di perusahaan saya sebelumnya, meskipun ada persetujuan pelanggan, untuk mengakses data pengguna tetap harus melewati sangat banyak prosedur
Karena terlihat sangat jelas bahwa di dalam perusahaan sendiri ceritanya sama sekali berbeda
Salah satu ceruk komersial yang lebih besar untuk smart glasses adalah merekam porno POV, jadi tidak terlalu mengejutkan jika konten semacam itu masuk ke antrean moderasi
Proyek ini seharusnya sudah dirancang dengan mempertimbangkan use case tersebut
Bahkan pada era Oculus Go, ada banyak eufemisme sopan di internal untuk menghindari kalimat “perangkat kami harus diluncurkan dengan browser agar orang bisa menonton porno”
Karena ini di-stream ke server, apakah artinya mereka akan mengirim seseorang untuk menghentikan orang bercinta?
https://archive.ph/ubWba
Jika ingin membaca lebih banyak tentang cara sisi menjijikkan dari pelatihan AI dialihkan ke pekerja miskin di negara berkembang, saya merekomendasikan Empire of AI karya Karen Hao
Para pekerja ini terekspos materi mengerikan dalam pekerjaan yang tidak stabil sambil dibayar recehan per jam