1 poin oleh GN⁺ 2025-09-07 | 1 komentar | Bagikan ke WhatsApp
  • Percakapan chatbot AI menimbulkan pelanggaran privasi yang sama seperti pelacakan online yang sudah ada, tetapi dengan tingkat yang lebih parah
  • Chatbot mengumpulkan lebih banyak informasi pribadi daripada pencarian, bahkan memahami proses berpikir dan gaya komunikasi manusia secara spesifik
  • Informasi ini berisiko lebih sering dan lebih licik dimanfaatkan untuk manipulasi, seperti iklan dan penanaman ideologi
  • Sebelumnya ada layanan AI yang menjaga privasi, tetapi belakangan kebocoran privasi dan penyalahgunaan data meningkat di berbagai perusahaan
  • Karena tidak adanya regulasi hukum, masalah ini terus berulang, sehingga pembuatan undang-undang yang melarang pengawasan AI menjadi sangat mendesak

Tingkat keseriusan pelanggaran privasi oleh chatbot AI

  • Semua masalah pelanggaran privasi yang sebelumnya muncul dalam pelacakan online juga muncul di AI dengan cara yang sama, bahkan lebih parah
  • Percakapan dengan chatbot cenderung lebih panjang dan lebih rinci daripada kueri pencarian biasa, sehingga paparan informasi pribadi menjadi jauh lebih besar
  • Orang-orang menjadi lebih mudah mengungkapkan kekhawatiran, emosi, dan cara berpikir mereka kepada chatbot
  • Tidak seperti riwayat pencarian, chatbot membentuk profil pribadi yang komprehensif, termasuk kepribadian, cara berkomunikasi, dan sebagainya

Pemanfaatan informasi AI dan risiko manipulasi

  • Informasi pribadi yang menjadi semakin kaya seperti ini berpotensi lebih efektif disalahgunakan untuk manipulasi komersial dan ideologis
  • Melalui iklan yang mendorong perilaku lewat chatbot, atau manipulasi system prompt dan optimasi mesin pencari (SEO), pengguna dapat diarahkan ke posisi politik atau produk tertentu
  • Sudah ada hasil penelitian yang menunjukkan bahwa chatbot lebih persuasif daripada manusia, dan kasus orang yang terjerumus ke dalam pola pikir delusional juga telah dilaporkan
  • Fitur memori chatbot mempelajari data percakapan masa lalu, sehingga memungkinkan persuasi yang dipersonalisasi dan pengaruh yang besar
  • Alih-alih iklan konvensional yang mengganggu, tercipta lingkungan tempat pesan persuasi yang dipersonalisasi atau rekomendasi produk yang halus disampaikan secara alami

Layanan AI yang melindungi privasi dan kondisi industri

  • Perdebatan privasi seputar Google Search selama 20 tahun terakhir juga berlaku untuk chat AI, tetapi dampak AI lebih besar
  • DuckDuckGo dan lainnya menyediakan layanan chat AI yang berfokus pada privasi (Duck.ai) serta jawaban AI anonim
  • Namun, langkah perlindungan seperti ini adalah pengecualian, dan di seluruh industri tren insiden privasi justru meningkat
  • Kasus kebocoran besar percakapan chatbot di Grok, kerentanan peretasan Perplexity, serta visi pelacakan pengguna menyeluruh dari Open AI terus diberitakan belakangan ini
  • Dalam kasus Anthropic, sebelumnya penyimpanan percakapan chat dimatikan, tetapi baru-baru ini mereka mengubahnya sehingga pemanfaatan percakapan chat menjadi default, dan data pengguna dapat dipakai untuk pelatihan

Respons hukum dan tantangan ke depan

  • Diperlukan legislasi cepat agar chat yang melindungi privasi menjadi praktik standar, bukan pengecualian
  • Amerika Serikat bahkan masih belum memiliki undang-undang privasi online umum, dan ada keterbatasan karena hal ini juga tidak dijamin sebagai hak dasar konstitusional
  • Belakangan ada suasana bahwa peluang legislasi AI di tingkat federal mulai terbuka, tetapi di saat yang sama juga ada pembahasan untuk melarang legislasi AI di tingkat negara bagian
  • Ada kekhawatiran bahwa praktik buruk akan mengakar seiring penundaan waktu
  • Untuk mencegah masalah seperti pelacakan online di masa lalu terulang sebagai pelacakan AI, pelarangan pengawasan AI diajukan sebagai tugas yang mendesak

Kesimpulan

  • DuckDuckGo dan lainnya akan terus menyediakan layanan yang melindungi privasi serta fitur AI opsional
  • Pengguna dapat mengharapkan alat online yang memungkinkan mereka menikmati keseimbangan antara peningkatan produktivitas dan perlindungan privasi

1 komentar

 
GN⁺ 2025-09-07
Komentar Hacker News
  • Alasan saya berhenti memakai Facebook adalah karena pernah melihat video seorang gadis Australia sekitar 7 tahun memegang laba-laba yang lebih besar dari wajahnya, lalu saya menulis komentar meme seperti “lepasin laba-labanya lalu bakar rumahnya”, tetapi akun saya langsung dihukum; waktu itu saya adalah developer yang menangani integrasi aplikasi Facebook di kantor, jadi saya mengajukan banding, tetapi entah AI yang menolaknya dengan sangat cepat atau manusia yang luar biasa cepat, rasanya mereka sama sekali tidak memahami budaya meme internet; setelah itu saya berhenti total menggunakan Facebook; menurut saya sangat suram jika AI bisa menghukum orang semudah itu
    • Masalah dasarnya menurut saya bukan sekadar AI menegakkan aturan, melainkan perusahaan swasta punya kekuatan memengaruhi kehidupan sehari-hari orang nyaris tanpa regulasi; contoh Facebook mungkin masih bisa diabaikan, tetapi kalau pemilik properti sewaan atau perusahaan asuransi membuat keputusan seperti ini, dampaknya akan sangat besar; kebijakan semacam ini jelas tidak akan berhenti di perusahaan swasta, dan lembaga negara pun sudah aktif memakai sistem seperti ini serta ke depan akan makin parah
    • Saya pernah kena suspend di reddit hanya karena mengunggah skrip perbaikan bug untuk DFhack; DFhack adalah skrip untuk program yang umum dipakai para modder Dwarf Fortress; kalau peninjauan AI murahan seperti ini jadi standar ke depan, saya makin yakin platform besar seperti ini sudah tidak layak dipakai lagi
    • Saya sudah merasa tidak nyaman karena AI bahkan dipakai untuk penyaringan awal tes coding; resume saya juga ditinjau AI yang memberi alasan penolakan, tetapi isinya malah ngawur; saya bahkan tidak yakin ada manusia yang melihatnya, dan saya berasumsi AI yang menanganinya; mencari kerja saja sudah sulit sebelum AI muncul, dan sekarang yang tersisa hanya rasa muak terhadap seluruh proses rekrutmen
    • Cara Facebook mengelola produknya secara otomatis benar-benar mengecewakan dan memalukan; mereka bahkan sampai memblokir akun pengacara bernama Mark Zuckerberg secara otomatis; artikel terkait (https://huffpost.com/entry/…), kalau Anda pengiklan di Facebook, akun iklan bisa dibatasi tanpa alasan, tetapi tidak ada satu pun orang yang bisa diajak banding, dan bahkan kalau Anda menghabiskan uang sangat besar pun tetap sama; tips yang semua orang tahu cuma satu: sebelum beriklan, posting hal-hal tidak penting di fanpage selama 5–7 hari lalu beli likes; kalau tidak, akun iklan langsung disuspend
    • Mungkin Anda disuspend gara-gara comma splice, entahlah (comma splice: https://en.m.wikipedia.org/wiki/Comma_splice)
  • Ke depan, perusahaan AI besar kemungkinan akan terus mendorong penguatan perlindungan privasi; Sam Altman juga membandingkannya dengan privilege pengacara-klien dalam wawancara; hambatan utama untuk menjadikannya asisten pribadi penuh atau basis pengetahuan adalah kurangnya data pribadi; solusi yang sebenarnya hanyalah menjalankan model secara lokal, tetapi ini bertentangan dengan model bisnis saat ini; jadi mereka akan bergerak ke arah privasi yang ‘dipaksakan’ lewat regulasi, dan pada akhirnya itu akan dikuasai regulasi pihak ketiga serta dalih kepentingan publik, di luar kendali saya
    • Klaim bahwa itu “bertentangan dengan model bisnis” tidak berlaku untuk perusahaan yang menjual hardware; kalau saya Apple, Dell, atau Lenovo, saya akan habis-habisan masuk ke model lokal yang didukung Hugging Face
    • “Fiat privacy” pada akhirnya punya kerentanan yang sama seperti seseorang mengaku telah membunuh seseorang atau menyimpan kunci dompet di brankas; ada pelajaran dari gereja di sini; jika karyawan penyedia LLM benar-benar menunjukkan keyakinan bahwa mereka rela mengorbankan kebebasan/kekayaan demi melindungi privasi, masyarakat akan menerimanya; seperti Richard Masten yang hampir masuk penjara karena menghancurkan dokumen berisi informasi pelapor rahasia di pengadilan, kita bisa melihat bahwa di masyarakat yang baik, menjaga prinsip memang efektif
    • Bandingkan privilege pengacara-klien yang disebut Sam Altman dengan fakta bahwa OpenAI justru menyatakan bersedia memantau semua percakapan lalu melapor ke pemerintah (posisi resmi: https://openai.com/index/helping-people-when-they-need-it-most/); isinya mengatakan bahwa jika dinilai sebagai “ancaman darurat serius”, mereka akan menyerahkannya ke aparat penegak hukum; mungkin niat keseluruhannya baik, tetapi saya tidak bisa menyetujui AI korporat yang memantau semua percakapan, dan seperti perusahaan telepon tidak boleh menyadap komunikasi secara ilegal, sepertinya zaman ketika AI merekam, menilai, bahkan mengelompokkan semua percakapan akan segera tiba
    • Big Tech dengan polos berpura-pura jadi teladan, padahal sebenarnya hanya sedang membeli waktu untuk “menguasai regulasi dan pasar”; mereka merilis produk dengan slogan indah atau “fitur setengah jadi” sambil memperbesar pangsa pasar, lalu jika sudah cukup kuat sebelum regulasi datang, mereka bahkan bisa mengendalikan para politisi; saya rasa pemerintah AS baru akan benar-benar melakukan sesuatu terhadap perusahaan AI sekitar 5 tahun lagi, dan saat itu OpenAI, Google, dan Meta kemungkinan sudah memegang penuh kendali atas diskusi regulasi
    • Siapa pun bisa membunuh seseorang kapan saja jika memang mau; gagasan bahwa enkripsi menjamin keamanan itu ilusi, yang menentukan hanyalah kerahasiaan
  • Kalau semua orang pernah berbicara dengan chatbot, ada satu hal yang wajib diketahui: semua percakapan chatbot yang pernah dilakukan sampai sekarang tidak benar-benar terhapus, dan kapan pun di masa depan bisa dipakai untuk penargetan iklan, manipulasi finansial/politik, atau penjualan “pengaruh yang dipersonalisasi”; jangan mengecilkan risikonya hanya menjadi “melatih AI dari chat log”; ke depan, saat chatbot iklan/pengaruh muncul, bahaya yang jauh lebih nyata adalah mereka akan meneliti semua log percakapan saya dengan chatbot lain untuk menemukan cara persuasi yang paling cocok untuk saya; bahkan percakapan yang saling dikirim orang di dalam platform pun, jika perusahaan sedang butuh uang, bisa saja dijual; makin dipikirkan makin terasa mengkhawatirkan
    • Bagi saya, bagian paling menakutkan dari ai-chatbot adalah potensinya sebagai “antarmuka manipulasi yang dioptimalkan”; cukup lempar prompt seperti “bagaimana membuat orang ini melakukan x?” lalu AI bisa mengoptimalkan semuanya sendiri berdasarkan seluruh isi percakapan yang dimilikinya
    • Saya tidak pernah merasa terganggu dengan iklan personal atau retargeting; toh kalau harus melihat iklan, menurut saya lebih baik yang relevan daripada yang tidak nyambung sama sekali
    • Jangan abaikan kemungkinan bahwa riwayat percakapan bisa muncul sebagai barang bukti di pengadilan
  • Klaim tentang “percakapan yang dilindungi” pada dasarnya sudah kehilangan efektivitas; SMS di jaringan telepon pun sejak lama rentan terhadap serangan man-in-the-middle (MITM); di dunia nyata, polisi Inggris juga sudah melakukan penangkapan keliru dengan AI pengenal wajah; siapa pun yang masuk ke Inggris bisa dipaksa menyerahkan kata sandi dan perangkat, dan jika menolak bisa ditahan tanpa batas berdasarkan undang-undang terorisme; jika dicurigai terkait terorisme, bahkan hak untuk berhubungan dengan pengacara pun tidak ada; era privasi diam-diam sudah berlalu
  • Berkat AI, pengawasan dan penyensoran massal bahkan terhadap pikiran masa lalu kini menjadi kenyataan; ini benar-benar zaman yang menakutkan
    • Banyak orang pada akhirnya mungkin akan menjauhi perilaku online itu sendiri; mungkin percakapan privat masih ada, tetapi bahkan membuat satu karya seni pun pada akhirnya seperti menyumbang kepada pemegang saham Google/Meta; maksudnya, risiko seperti ini sudah ada bahkan sebelum sensor pemikiran benar-benar dimulai
    • Sebenarnya sensor seperti ini sudah lama ada dalam bentuk yang lebih sederhana; misalnya, komentar di situs ini (HN) terus dibentuk oleh motivasi untuk mendapat upvote; tentu downvote membantu menyaring troll, tetapi masalah dasarnya tidak hilang; secara pribadi saya justru berharap AI benar-benar merusak media sosial sepenuhnya, dan setelah itu barulah kita bisa memulai lagi dengan platform yang lebih sehat
    • Konsep Roko’s Basilisk makin terasa menjadi kenyataan
    • Jauh lebih mengancam daripada riwayat pencarian
  • Seperti hotel AI dalam novel Altered Carbon, suasana komentar saat ini mengingatkan pada realitas AI yang sebenarnya tidak dipakai siapa pun (referensi: https://en.m.wikipedia.org/wiki/Altered_Carbon); di novel itu AI terlalu terobsesi menyenangkan pelanggan sampai melelahkan, sedangkan perbedaan besarnya di dunia nyata AI justru menjadi entitas yang hanya melayani organisasi
  • Menurut saya, objek pengawasan seharusnya pertama-tama adalah perusahaan yang membuat teknologi itu sendiri, termasuk para eksekutif dan karyawannya, serta para politisi yang meloloskan undang-undangnya; saya pikir kita semua seharusnya bisa mengakses seluruh data AI yang mereka kumpulkan tentang kelompok ini
  • Saya menganggap Gabereial Weinburg (pendiri duckduckgo) orang yang munafik karena secara terbuka pernah berkata “orang tidak butuh privasi”, sementara duckduckgo mengklaim menjual perlindungan privasi; pada kenyataannya mereka juga berdagang data pelacakan dengan berbagai perusahaan lain, dan sambil berkata “duckduckgo tidak melacak”, mereka tetap membiarkan para mitranya melacak; belakangan kontroversi seperti ini tampaknya mulai dihapus dari internet sehingga sulit ditemukan
    • Kalau tuduhannya seserius ini, mestinya bisa dicari dan ada sesuatu yang muncul, tetapi tidak ada; karena sulit menghapus total sesuatu dari internet, rasanya harusnya ada bukti
    • Saya penasaran apakah dulu mereka juga pernah bertukar informasi dengan Microsoft
  • Saya penasaran apakah ada alternatif tepercaya untuk menghindari zaman yang makin menuju ‘nol privasi’; kini AI bahkan bisa mengenali individu hanya dari cara berjalan, membuktikan identitas tanpa pengenalan wajah, dan bahkan mendeteksi detak jantung lewat sinyal Wi‑Fi; pada akhirnya, zaman ketika “seseorang” bisa mengetahui segalanya tampaknya tak terhindarkan; yang belum pasti hanya apakah pihak itu akan benar-benar segelintir orang atau semua orang; menurut saya, jelas lebih baik jika terbuka untuk semua
    • Solusinya adalah legislasi atau pasar (secara pribadi saya memilih kekuatan pasar)
  • Masalah terbesar terkait chatbot adalah kebiasaan orang memproyeksikan sifat manusia ke dalam chatbot; bahkan para developer pun memperlakukan chatbot seolah-olah manusia; tetapi OpenAI dan semua perusahaan chatbot perlu berulang kali menegaskan dengan jelas bahwa LLM bukan manusia; jika seluruh masyarakat dilatih untuk memandang AI sebagai “bukan manusia”, keadaan akan jauh lebih baik
    • Saya bukan coder full-time, mungkin sekitar 25% pekerjaan saya melibatkan coding, tetapi sesekali bercanda atau mengobrol dengan LLM justru membuat coding lebih menyenangkan; misalnya ketika Claude langsung memperbaiki bug yang sudah lama saya pikirkan, saya jadi berkata seperti “gila, ini keren banget! terus selanjutnya...” dan semacamnya; berkat AI saya jadi lebih sering coding untuk bersenang-senang, dan itu terasa makin menarik karena AI menangani sebagian besar pekerjaan nyata
    • Ada yang membalas, “Bisakah Anda menjelaskan secara spesifik kenapa mengajari orang bahwa AI bukan manusia itu lebih baik?”
    • Jadi menurut saya sangat menarik bahwa orang-orang menyebut AI sebagai “Clanker” untuk membedakannya dari manusia sungguhan