1 poin oleh GN⁺ 2025-08-27 | 1 komentar | Bagikan ke WhatsApp
  • Video konser Will Smith sempat dicurigai menampilkan penonton palsu yang dibuat AI, padahal sebenarnya berbasis pada rekaman para penggemar yang benar-benar ada
  • Video yang dipermasalahkan itu dibuat dengan mencampurkan adegan konser dan foto penonton festival sungguhan, sementara beberapa shot penonton dianimasikan memakai model AI image-to-video
  • Namun, ketika eksperimen pascapemrosesan YouTube Shorts (unblurring·denoise) ditambahkan, wajah penonton berubah secara aneh dan papan tanda terdistorsi, sehingga tampak seperti manipulasi AI
  • Versi video yang sama yang diunggah ke Instagram·Facebook mengalami distorsi lebih sedikit, sehingga koreksi otomatis YouTube justru memperburuk situasi
  • Pada akhirnya, penontonnya memang nyata, tetapi AI enhancement dari pihak artis dan filter YouTube yang bertumpuk memicu kontroversi nyata vs palsu

Awal kontroversi

  • Saat video berdurasi 1 menit itu dirilis, media besar seperti Rolling Stone, NME, dan Mashable memberitakan dugaan manipulasi AI
  • Wajah para penonton di dalam video menunjukkan distorsi khas AI, jari berjumlah banyak, dan tanda-tanda aneh
  • Secara khusus, papan bertuliskan “From West Philly to West Swizzy” salah dikenali dan memicu kontroversi yang lebih besar

Verifikasi adegan konser asli

  • Video itu merupakan hasil penyuntingan silang adegan penonton dari Positiv Festival di Orange, Prancis, serta Gurtenfestival·Paléo Festival di Swiss dan Ronquieres Festival di Belgia
  • Foto pertunjukan terkait dan video yang direkam penggemar mengonfirmasi orang dan papan tanda yang sama, sehingga terbukti bahwa penontonnya nyata
  • Bahkan papan berisi kisah pasangan yang berjuang melawan kanker juga benar-benar ada, dan beberapa foto serta video terkait masih tersimpan di Instagram Will Smith

Manipulasi AI dalam dua tahap

  1. Tim Will Smith menggunakan foto konser resmi untuk membuat klip pendek dengan model AI image-to-video (Runway, Veo 3, dll.)
  2. Pascapemrosesan otomatis YouTube Shorts (unblur·denoise) kemudian ditambahkan, membuat video tampak lebih kabur dan tidak alami

Eksperimen YouTube Shorts

  • Versi yang diunggah ke Instagram·Facebook relatif lebih jelas, tetapi YouTube menerapkan “eksperimen teknologi peningkatan AI” sehingga muncul efek visual yang tampak terpelintir secara menyeluruh
  • YouTube menjelaskannya sebagai “teknologi penajaman berbasis machine learning tradisional”, tetapi penerapannya tanpa pemberitahuan lebih dulu memperbesar kontroversi
  • Setelah protes dari kreator, YouTube kemudian mengumumkan akan menambahkan fitur opt-out

Kesimpulan

  • Sebagian besar pengguna YouTube, Reddit, dan X percaya bahwa ini adalah “video penggemar palsu yang dibuat dengan generative AI”
  • Kenyataannya, penonton yang muncul adalah penonton sungguhan, tetapi transformasi image-to-video oleh tim Will Smith dan pascapemrosesan YouTube membuat kesan artifisialnya semakin kuat
  • Kasus ini memunculkan kebutuhan akan pembedaan etis antara memberi efek animasi singkat pada foto konser dengan model image-to-video, dan menciptakan kerumunan yang sepenuhnya fiktif
  • Pada akhirnya, kasus ini menunjukkan fenomena ketika pertunjukan nyata justru terlihat ‘kurang nyata’ karena alat AI

1 komentar

 
GN⁺ 2025-08-27
Opini Hacker News
  • Video yang di-upscale dengan AI rasanya sama mengganggunya seperti kecanggungan sebelum interpolasi frame di TV baru dimatikan. Aku heran siapa yang menganggap ketajaman buatan yang keliru seperti ini terlihat lebih keren. Baru-baru ini aku menonton versi upscale AI dari konser David Bowie & Nine Inch Nails, dan terutama di menit ke-2 terasa seperti realitasnya meleset, sampai menimbulkan rasa tidak nyaman secara psikologis. Video aslinya memang beresolusi rendah, tapi menurutku justru jauh lebih berhasil menangkap suasana dan nuansa yang memang dimaksudkan. Sekarang kamera dan lensa sudah sangat bagus, jadi tidak perlu memaksa menaikkan kualitas gambar dengan AI
    • Yang mengejutkan, sepertinya orang-orang justru menikmati kualitas gambar seperti ini. Kemarin pasanganku sedang memilih smartphone baru, dan dia bilang kualitas kameranya penting karena tetap tajam saat diperbesar. Tapi melihat gambar yang setelah jeda singkat lalu direkonstruksi secara artifisial, dengan distorsi yang terasa seperti filter upscale di emulator game konsol lama, aku agak sedih karena orang yang sangat kusayangi ternyata lebih menyukai selfie dengan wajah dibuat lebih mulus dan bokeh palsu yang membuat latar belakang tampak tidak alami, ketimbang foto yang natural dan terasa nyata
    • Gambar ini benar-benar lucu
    • Dulu saat menonton drama favorit di TV baru milik orang tuaku, aku merasa ada yang aneh, seperti tampilannya jadi murahan dan akting para pemain terasa canggung, bahkan dialognya terasa jelek, jadi aku sempat bertanya-tanya kenapa. Seiring waktu akhirnya aku sadar penyebabnya adalah auto smoothing di TV itu. Fenomena ini biasa disebut Soap Opera Effect
    • Terus memaksakan teknologi yang tidak diinginkan konsumen terjadi karena tekanan untuk menjaga harga saham -> tekanan manajemen untuk menaikkan pangsa pasar -> PM dituntut menambah fitur baru -> developer ingin mencoba teknologi baru -> lalu muncullah AI chatbot, ringkasan AI, layar sentuh di mobil, dan AI upscaling yang sebenarnya tidak kita inginkan
    • Kebanyakan orang tidak terlalu menyadari perbedaan seperti ini. Aku tidak punya TV di rumah, tapi saat ke rumah teman aku langsung bisa mengenali Soap Opera Effect. Dua kali aku menyuruh mereka mematikan fitur itu, dan setelah itu mereka juga setuju lalu tidak menyalakannya lagi. Tapi sebenarnya kebanyakan mungkin hanya percaya padaku; aku tidak yakin mereka benar-benar bisa melihat bedanya. Kalau mau mematikan fitur itu, coba cari "nama merek TV soap opera effect" dan biasanya akan ada petunjuk cara menemukan pengaturannya. Perlu hati-hati karena tiap produsen sering memakai nama aneh-aneh. Di bagian menit 2:06 perubahan wajahnya sangat terlihat, padahal cuplikan aslinya memang sangat blur di bagian itu. Versi AI sama sekali tidak memahami efek kamera. Membandingkan versi upscale AI dan aslinya membuatnya jadi sangat jelas. Terima kasih juga karena sudah memberi tautan ke dua video itu sehingga mudah dibandingkan
  • Banyak komentar membahas YouTube, tetapi menurut isi artikelnya, sebagian besar kerja AI dilakukan oleh tim Will untuk mengubah foto diam menjadi video. Jadi sebenarnya YouTube hanya membuat hasil akhirnya sedikit kurang buram, sedangkan artefak AI yang benar-benar canggung kebanyakan muncul pada tahap produksi video. Ini juga hanya berlaku untuk Shorts. Lihat video perbandingan
    • Di video itu perbedaannya tidak terlalu terlihat
  • Aku jadi penasaran bagaimana kalau Coldplay memakai teknologi seperti ini musim panas ini. Ngomong serius, tren menyisipkan AI ke segala hal cukup mengkhawatirkan. Dulu aku sangat senang menemukan musik baru lewat Spotify Discover Weekly, tapi sekarang pengalaman itu jadi rusak karena terlalu banyak lagu buatan AI
    • Aku jadi ingin berhenti dari Spotify, beli CD di toko musik lokal, lalu membangun sendiri koleksi musikku pakai pembaca CD USB. Rasanya dengan terus mengejar lagu terbaru dan obsesi bahwa "semua lagu ada", kita kehilangan unsur emosional saat manusia sungguhan berbagi musik
    • Bisa jadi begitu. Kesenangan menemukan lagu permata secara tak terduga lewat rekomendasi musik itu penting, dan kalau lagu buatan AI ikut tercampur, sihirnya hilang. Memang Spotify tidak pernah secara resmi bilang mereka lebih banyak merekomendasikan lagu AI, tetapi dalam setahun terakhir musik AI meledak di seluruh platform streaming. Algoritme Spotify juga sering merekomendasikan lagu tanpa membedakan apakah itu buatan manusia atau AI, terutama untuk ambient, lo-fi, EDM, dan pop aman yang mudah ditiru AI. Pada akhirnya banyak orang merasa tidak nyaman melihat AI merembes ke wilayah yang seharusnya dikurasi manusia atau didekati secara artistik. Kalau kamu penasaran apakah ada cara memfilter musik AI atau hanya menerima rekomendasi lagu manusia di tiap layanan, aku juga bisa mencarikannya
  • Isu inti yang sebenarnya di sini adalah <i>persetujuan</i>. Semua orang mungkin paham bahwa saat masuk venue konser kita menyetujui kemungkinan difoto atau direkam, tapi apakah benar ada orang yang dengan jelas setuju sampai wajahnya diubah menjadi video palsu oleh AI milik tim artis? Aku juga benar-benar penasaran apakah ini legal di tiap negara
    • Mungkin besar ada kalimat seperti "dengan masuk Anda setuju untuk direkam" di syarat saat membeli tiket atau di papan pengumuman di pintu masuk venue. Secara moral memang kurang bagus, tapi secara hukum tampaknya ini kasus yang cukup aman terlindungi
  • Kalau aku seorang marketer, aku malah akan membuat gambar asli terlihat seperti buatan AI demi mengejar efek viral gratis. Tidak ada yang lebih menarik perhatian daripada kesalahan atau kontroversi soal hasil editan. Kalau aslinya memang bukan palsu, artis atau timnya juga tidak rugi apa-apa. Aku pernah bicara dengan social media manager merek besar, dan katanya mereka sengaja mengunggah tulisan dengan salah eja agar memancing lebih banyak komentar dan reaksi
    • Ini disebut ragebait. Di industri marketing ini sudah jadi trik yang umum dipakai
    • Film Naked Gun yang baru juga melakukan hal seperti ini dengan sengaja menggambar jumlah jari yang lebih banyak di posternya
  • Aku tidak tahu apakah hardware/software-ku atau mataku yang bermasalah, tapi saat membandingkan YouTube dan Instagram berdampingan aku tidak melihat banyak perbedaan. Kalau memang bukan masalah penglihatan, aku penasaran apa yang harus dicek, dan apakah aku perlu upgrade monitor. GPU-ku tidak buruk, tapi aku juga memakai adaptor HDMI-ke-VGA. Namun untuk foto, hasilnya benar-benar tampak aneh dan susah dilihat. Aku rasa videonya juga kemungkinan penuh dengan distorsi artifisial seperti itu
    • Pada video, perbedaannya lebih halus. Tidak selalu terlihat jelas di setiap frame; kadang latar belakang tiba-tiba menjadi fokus lalu blur lagi, atau muncul tekstur aneh di kepala dan leher orang, dengan garis wajah sangat tajam sementara kulitnya terlihat terlalu mulus sampai tidak alami. Rasanya seperti Max Headroom
  • Tidak ada satu pun orang di sekitarku yang benar-benar menginginkan fitur seperti ini. Aku benar-benar penasaran kenapa hal yang rumit dan tidak perlu seperti ini terus diperkenalkan
    • Seperti beberapa negara yang menguji persenjataan mereka di medan nyata untuk mengumpulkan pengalaman, kadang aku membayangkan Google juga sedang membangun kapasitas organisasinya sambil bersiap untuk hari ketika semua ini benar-benar akan mereka manfaatkan dengan serius
    • Kerumitan memang ada juga pada hal-hal yang diperlukan, tetapi kalau tidak menghasilkan keuntungan, tidak ada alasan untuk mendorongnya
  • PM Youtube: “Mari bikin video buatan AI dan video nyata jadi makin sulit dibedakan agar pengguna merasa itu alami!”
    • Menurutku bahkan niat jahat yang terencana seperti itu sebenarnya tidak terlalu ada. Orang-orang yang benar-benar tergila-gila pada AI hanya ingin memasukkan AI ke semua produk, dan kalau atasan berkata “AI hebat sekali, masukkan itu”, mereka tinggal menuangkannya ke mana-mana. Rapat pun bukan lagi berfokus pada “mari selesaikan masalah pengguna X”, melainkan “bagian mana dari produk yang bisa kita ubah dengan AI”
    • Yang lebih realistis daripada niat jahat adalah insentif yang salah. KPI seseorang mungkin ditetapkan berdasarkan adopsi fitur AI, dan karena itu tempat yang dulu diisi filter sharpen + Denoise lama di YouTube kini diganti dengan “AI enhancement”
    • Bahkan ada panduan penjelasan transformasi AI YouTube
    • Pendekatan seperti ini justru bisa membuat video berita yang asli pun disalahpahami sebagai hasil AI sintetis dan menurunkan kepercayaan. Orang malah jadi lebih waspada dan tidak percaya
    • Generasi ke depan akan tumbuh dalam lingkungan media yang sudah benar-benar berbeda dari generasi sebelumnya
  • Aku juga bertanya-tanya siapa yang mencetuskan fitur ini sebagai salah satu upaya untuk “membuat AI berguna”. Toh sumber HD aslinya sudah ada, jadi rasanya tidak perlu mengeluarkan biaya untuk menyediakan upscaling. Kalaupun hanya diterapkan pada video berkualitas rendah, justru distorsi terhadap rasa realitas itu terasa lebih serius
    • Bagi Google, realitas tidak penting. Yang penting iklan dan engagement
  • Kalau menjual kaus bertuliskan “AI glitch”, lalu efek seperti ini muncul di tiap foto, kita bisa membuat orang tidak lagi bisa membedakan mana yang nyata dan mana yang palsu
    • Seiring waktu, kaus seperti ini mungkin akan menjadi aksesori tren sesaat yang lalu menghilang, seperti properti jari keenam (masalah khas AI generatif) atau masker 5 kacamata (untuk menghindari pengenalan wajah)
    • Kaus seperti itu sudah ada, dan sering kali hanya mencetak mentah-mentah teks keluaran ChatGPT tanpa verifikasi apa pun