1 poin oleh GN⁺ 2026-01-19 | 1 komentar | Bagikan ke WhatsApp
  • Mengulas fenomena ketika konten buatan AI mulai mengambil porsi besar dalam interaksi di internet
  • Berawal dari perdebatan di HackerNews soal apakah sebuah proyek open source dibuat oleh AI, penulis mengamati pola yang membuat bahkan komentar pun tampak seperti ditulis AI
  • Pada masa IRC dan forum phpBB dulu, interaksi antarmanusia nyata menjadi pusatnya, tetapi kini gambar, komentar, dan kode buatan AI sudah bercampur dalam keseharian
  • Di LinkedIn dan layanan lain, penulis juga melihat kasus foto perusahaan yang dimanipulasi AI diunggah seolah-olah sebagai postingan pegawai sungguhan
  • Muncul kekhawatiran bahwa perkembangan teknologi bergeser dari berbagi pengetahuan manusia menuju percakapan antarbot dan pengemasan ulang konten komersial

Perdebatan di HackerNews dan kesadaran akan masalah

  • Penulis menemukan sebuah proyek open source yang dipublikasikan seorang pengguna di HackerNews
    • Dalam komentar, beberapa pengguna anonim mencurigai bahwa kode tersebut mungkin dibuat oleh AI
    • Mereka menyoroti timeline commit kode dan gaya penulisan komentar yang tampak seperti hasil AI
  • Penulis tidak menolak penggunaan AI itu sendiri, tetapi menekankan bahwa penggunaan AI di open source harus diungkapkan dengan jelas
    • Karena sebagian besar peserta internet anonim, sulit memverifikasi keahlian maupun keaslian
    • LLM berguna untuk tugas sederhana, tetapi bisa berbahaya pada masalah kompleks atau edge case

Jejak AI yang terlihat dari pola komentar

  • Penulis menemukan gaya bahasa khas AI bahkan dalam komentar penulis proyek
    • Contoh: penggunaan em-dash (—) yang berlebihan, ungkapan tidak alami seperti “you are absolutely right”
    • Pengulangan struktur kalimat ala AI seperti “let me know if you want to [do that thing] or [explore this other thing]”
  • Karena ungkapan seperti ini berbeda dari kebiasaan bahasa manusia nyata, penulis jadi meragukan apakah lawan bicaranya benar-benar manusia

Kesadaran akan ‘Dead Internet Theory’

  • Dari pengalaman ini, penulis teringat pada Dead Internet Theory
    • Teori ini menyatakan bahwa sejak sekitar 2016, sebagian besar internet telah dipenuhi interaksi antarbot dan konten buatan mesin
    • Tujuan kontennya berfokus pada keuntungan komersial, seperti penjualan produk atau manipulasi SEO

Kontras antara internet masa lalu dan sekarang

  • Pada awal 2000-an, di masa IRC dan forum phpBB, yang menjadi pusat adalah pembelajaran dan interaksi antarmanusia nyata
    • Penulis menyebut masa itu sebagai “Internet University”, tempat ia belajar jaringan, sistem operasi, game, dan pengembangan web
    • Saat itu ada keyakinan bahwa lawan bicara benar-benar manusia
  • Sekarang, realitasnya adalah campuran gambar AI dan komentar AI, sehingga sulit membedakan yang asli dan yang palsu

Kekhawatiran terhadap penyebaran konten AI

  • Penulis melihat foto kantor yang dimanipulasi AI di LinkedIn dan diunggah oleh pegawai perusahaan sungguhan
    • Bentuk tangan yang aneh dan teks tak bermakna di dalam gambar menunjukkan bahwa itu hasil AI
    • Bahkan muncul kemungkinan bahwa orang-orang di foto itu sebenarnya tidak ada
  • Di Facebook, Xitter, TikTok, dan platform lain, konten palsu buatan AI juga makin menyebar
    • Contoh: foto sosok raksasa yang membangun piramida, atau video yang menyampaikan pesan politik tertentu
  • Penulis menggambarkan perasaannya sebagai sedih dan tak berdaya menghadapi kenyataan ini
    • Karena AI makin mudah diakses publik, ‘AI-slop’ (konten sampah AI) membanjiri internet
    • Orang-orang memasuki era ketika mereka tidak lagi menulis sendiri, melainkan menyerahkannya kepada agen AI

Skeptisisme terhadap masa depan teknologi dan pengetahuan manusia

  • Penulis masih mencintai teknologi dan software engineering, tetapi
    internet masa kini, menurutnya, sedang berubah menjadi ruang tempat bot berbicara dengan bot
  • Pengetahuan manusia dikemas ulang menjadi konten komersial seperti “10 langkah untuk menyelesaikan masalah harian Anda”, sehingga
    makna asli dari berbagi pengetahuan perlahan menghilang

1 komentar

 
GN⁺ 2026-01-19
Komentar Hacker News
  • Beberapa waktu lalu orang tua saya tertipu oleh video YouTube palsu buatan AI. Isinya video tentang ‘polisi rasis’ yang berperilaku buruk, dan awalnya bahkan saya juga sempat bingung karena terlihat seperti asli. Setelah dicari, tidak ada sumber aslinya dan yang ada hanya unggahan ulang. Di deskripsi kanal tertulis “sebagian video adalah rekreasi kejadian nyata dengan AI”, tetapi sama sekali tidak meyakinkan. Sangat menyedihkan bahwa konten seperti ini memicu perpecahan demi pendapatan iklan YouTube

    • Konten bertema rasial memang permintaannya melebihi pasokan. Kenyataan saja tidak cukup untuk mempertahankan kemarahan, jadi video seperti ini terus dibuat
    • Video AI biasanya kelihatan hanya dari riwayat unggahan akun. Terlalu sering, terlalu repetitif, dan topik atau latarnya tidak konsisten. Meski teknologinya maju, pola seperti ini rasanya tidak akan hilang
    • Akhir-akhir ini saya menghabiskan terlalu banyak waktu di subreddit RealOrAI. Setiap kali salah tebak saya jadi makin cemas, lalu makin sering melihatnya agar bisa membedakan dengan lebih baik. Tapi mungkin sekarang kita memang harus menerima kenyataan bahwa yang asli dan yang palsu tidak lagi bisa dibedakan
    • Sebenarnya kekhawatiran seperti ini bukan hal baru. Dulu juga sudah umum ada foto yang dimanipulasi atau video tanpa konteks untuk memicu perpecahan. AI hanya membuatnya jadi lebih mudah
    • Saya berharap Google bisa secara otomatis menandai video yang mengandung konten AI
  • Saya sangat setuju dengan kalimat “ini bukan jejaring sosial”. Dulu ‘media sosial’ berarti ruang untuk berinteraksi dengan teman di dunia nyata, tetapi sekarang istilah itu sampai mencakup forum seperti Reddit. Akibatnya, ruang untuk interaksi sosial yang sungguh-sungguh hampir lenyap

    • Sekarang yang menjalankan peran itu adalah Discord. Karena berbasis undangan, tidak ada feed publik, dan benar-benar dimoderasi oleh manusia. Teman-teman IRC saya yang dulu juga semuanya pindah ke Discord. Kalau suatu saat mereka IPO, saya rasa saya akan memakai alternatif seperti Matrix
    • Awalnya “social media” adalah jaringan untuk berbagi konten secara langsung dengan teman. Tapi setelah Facebook bergeser menjadi berpusat pada reshare, sekarang ia berubah menjadi platform konsumsi konten acak alih-alih tempat melihat kabar teman. HN tidak punya fitur pertemanan, jadi lebih mirip forum
    • TikTok dan Instagram juga disebut ‘sosial’, tetapi kebanyakan orang tidak pernah mengunggah apa pun. Itu hanya platform konsumsi media
    • Sebenarnya saya juga belum pernah memakai Discord, jadi kurang tahu. Bagi saya itu cuma terlihat seperti versi IRC yang dijalankan perusahaan, jadi saya tidak paham kenapa bisa sepopuler itu
    • Meta mengatakan kurang dari 10% pengguna berinteraksi dengan orang yang benar-benar mereka kenal. Media sosial saat ini cuma ‘hiburan scroll’
  • Anggapan bahwa tidak ada yang memakai ‘em dash(—)’ itu keliru. Saya sudah sering memakainya sejak dulu. Ungkapan seperti “you’re absolutely right” juga sering dipakai antarteman sebagai candaan sarkastik. Buat kami yang tumbuh di Inggris, itu ungkapan yang alami

    • Sekarang bahkan hanya karena memakai tipografi yang bagus, tulisan bisa disangka ditulis LLM, dan itu menjengkelkan. Saya dari dulu sudah memakai en dash dan em dash. Dengan Compose key, mengetiknya juga mudah
    • Em dash itu sendiri bukan masalahnya. Karena bahasa Inggris bukan bahasa ibu saya, saya berlatih lewat menulis blog, dan saya mencoba berbagai cara karena ada atau tidaknya spasi memberi kesan berbeda. Pada akhirnya kebanyakan orang memang tidak konsisten. Kalau ada orang yang tata bahasanya terlalu sempurna, justru kemungkinan itu AI lebih tinggi
    • Mungkin karena sopan santun ala Inggris, saya secara alami memakai ungkapan seperti “you’re right, but…”
    • Dalam newsletter toko buku kami juga dipakai em dash. Secara visual lebih rapi daripada titik koma, dan berguna untuk memisahkan kalimat
    • Di iOS, cukup tahan tombol “-” lama-lama untuk memasukkannya, jadi saya sering memakainya
  • Ada cara sederhana untuk memeriksa apakah gambar dibuat oleh AI.

    • OpenAI menggunakan metadata C2PA,
    • Gemini menggunakan watermark SynthID.
    • SynthID tidak hanya berlaku untuk gambar, tetapi juga teks, dan kodenya juga sudah dibuka
    • Tetapi jika menambah atau menghapus noise dengan model image-to-image, SynthID juga bisa dihapus
    • Bahkan saya sempat mengunggah gambar dari blog OpenAI ke situs verifikasi, dan ternyata tidak ada metadata. Hal seperti ini menurunkan kepercayaan
    • Namun tujuan C2PA adalah ‘membuktikan bahwa sesuatu itu asli’. Memang tidak bisa memverifikasi semua konten, tetapi gambar yang terautentikasi bisa dipakai sebagai bukti hukum
  • Pada akhirnya masalah saat ini adalah struktur insentif platform.

    • YouTube termotivasi oleh view, LinkedIn oleh pencitraan diri, HN oleh promosi startup.
    • Mungkinkah kita membuat komunitas tempat AI tidak berguna karena yang ada hanya interaksi murni antarmanusia?
    • Mungkin kelompok kecil teman adalah satu-satunya jawaban
    • Dulu kita bisa berbicara dengan orang-orang pintar di forum phpBB gratis atau IRC. Tapi baru sekarang saya sadar betapa besar biaya operasional dan beban moderasinya
    • Komunitas seperti ini harus dibatasi oleh angka Dunbar (Dunbar’s number). Kalau terlalu besar, mustahil bertahan tanpa aturan dan admin
    • Sekarang video yang tidak akurat pun tetap berujung pada view dan pendapatan iklan. Platform tidak bertanggung jawab
    • Mungkin bisa dilakukan jika iklan dilarang total, dan hanya ada feed berbasis teman tanpa feed global, tetapi UX-nya akan memburuk
    • Pada akhirnya akar masalahnya adalah model internet berbasis iklan. Masalah Twitter juga lebih disebabkan keterbatasan struktural ini daripada Elon Musk
  • Saat merilis kode open source, saya rasa tidak perlu ada kewajiban mengungkapkan penggunaan AI. Tuntutan seperti itu hanya akan mematahkan semangat berkarya. Orang ingin membagikan kode yang mereka tulis, bukan membuktikan bahwa mereka tidak memakai AI

    • Tetapi dalam beberapa kasus, ada penulis yang terus bersikeras mengatakan “saya tidak pakai AI”, padahal di dalam kodenya masih ada jejak hasil generasi AI, sehingga rasanya seperti sedang digaslighting
  • Saya penasaran apakah ada platform media sosial yang melarang AI. Mungkin bisa dicegah lewat metadata gambar atau analisis perilaku pengguna

    • Kalau platform seperti itu muncul, itu akan menjadi surga bagi adversarial training
    • Bluesky tidak melarang secara resmi, tetapi komunitasnya sangat memusuhi AI, jadi hampir tidak ada
    • Vine yang baru dihidupkan kembali kabarnya akan secara eksplisit melarang konten AI
    • Tempat seperti Mastodon.art jelas melarang AI
    • Pada akhirnya, komunitas yang mampu menahan AI hanya lewat tekanan sosial memang bisa ada
  • Saya berharap kalau suatu hari semua konten online dibuat oleh AI, manusia akan kembali mencari dunia nyata

    • Perubahan seperti itu sebenarnya sudah mulai sedikit terlihat. Dulu orang bilang “kalau tidak ada foto saya tidak percaya”, tapi sekarang karena foto pun bisa dimanipulasi, saya hanya memotret untuk kenangan pribadi yang benar-benar nyata
    • Tetapi justru sangat mungkin banyak orang akan merasa puas dengan interaksi dengan AI
    • Sekarang saja orang tidak bisa lepas dari ponsel, jadi kalau AI membuat konten yang dioptimalkan, mereka akan makin tenggelam di dalamnya
    • Meski begitu, gagasan itu sendiri terasa hangat
  • Sekarang kita hidup di masa setelah Turing test. Jika manusia dan AI tidak bisa dibedakan, mungkin itu bukan karena AI makin pintar, melainkan karena percakapan online kita terlalu dangkal

    • Tetapi Turing test yang sesungguhnya bukan sekadar soal tertipu, melainkan apakah interrogator percakapan tidak bisa membedakannya. LLM saat ini masih belum sampai ke tingkat itu
    • Teks memiliki kandungan informasi yang sedikit, dan ada rasa percaya bahwa ‘ini ditulis manusia’, sehingga orang mudah tertipu. Karena itu AI berbasis teks sangat berbahaya. Belakangan ini bahkan saat menelepon saya kadang bingung apakah lawan bicara saya manusia atau robot
    • Pada akhirnya kita butuh sudut pandang seimbang ala “di satu tangan…” dan “di tangan yang lain…”
  • Saya menyebutnya ‘efek karpet’. Ketika melihat video atau struktur percakapan yang tersusun terlalu sempurna, muncul kesan artifisial. Seperti karpet Maroko, harus sengaja ada ketidaksempurnaan agar terasa manusiawi. Tetapi sepertinya tanda-tanda seperti ini juga akan segera hilang