- Percakapan chatbot AI menimbulkan pelanggaran privasi yang sama seperti pelacakan online yang sudah ada, tetapi dengan tingkat yang lebih parah
- Chatbot mengumpulkan lebih banyak informasi pribadi daripada pencarian, bahkan memahami proses berpikir dan gaya komunikasi manusia secara spesifik
- Informasi ini berisiko lebih sering dan lebih licik dimanfaatkan untuk manipulasi, seperti iklan dan penanaman ideologi
- Sebelumnya ada layanan AI yang menjaga privasi, tetapi belakangan kebocoran privasi dan penyalahgunaan data meningkat di berbagai perusahaan
- Karena tidak adanya regulasi hukum, masalah ini terus berulang, sehingga pembuatan undang-undang yang melarang pengawasan AI menjadi sangat mendesak
Tingkat keseriusan pelanggaran privasi oleh chatbot AI
- Semua masalah pelanggaran privasi yang sebelumnya muncul dalam pelacakan online juga muncul di AI dengan cara yang sama, bahkan lebih parah
- Percakapan dengan chatbot cenderung lebih panjang dan lebih rinci daripada kueri pencarian biasa, sehingga paparan informasi pribadi menjadi jauh lebih besar
- Orang-orang menjadi lebih mudah mengungkapkan kekhawatiran, emosi, dan cara berpikir mereka kepada chatbot
- Tidak seperti riwayat pencarian, chatbot membentuk profil pribadi yang komprehensif, termasuk kepribadian, cara berkomunikasi, dan sebagainya
Pemanfaatan informasi AI dan risiko manipulasi
- Informasi pribadi yang menjadi semakin kaya seperti ini berpotensi lebih efektif disalahgunakan untuk manipulasi komersial dan ideologis
- Melalui iklan yang mendorong perilaku lewat chatbot, atau manipulasi system prompt dan optimasi mesin pencari (SEO), pengguna dapat diarahkan ke posisi politik atau produk tertentu
- Sudah ada hasil penelitian yang menunjukkan bahwa chatbot lebih persuasif daripada manusia, dan kasus orang yang terjerumus ke dalam pola pikir delusional juga telah dilaporkan
- Fitur memori chatbot mempelajari data percakapan masa lalu, sehingga memungkinkan persuasi yang dipersonalisasi dan pengaruh yang besar
- Alih-alih iklan konvensional yang mengganggu, tercipta lingkungan tempat pesan persuasi yang dipersonalisasi atau rekomendasi produk yang halus disampaikan secara alami
Layanan AI yang melindungi privasi dan kondisi industri
- Perdebatan privasi seputar Google Search selama 20 tahun terakhir juga berlaku untuk chat AI, tetapi dampak AI lebih besar
- DuckDuckGo dan lainnya menyediakan layanan chat AI yang berfokus pada privasi (Duck.ai) serta jawaban AI anonim
- Namun, langkah perlindungan seperti ini adalah pengecualian, dan di seluruh industri tren insiden privasi justru meningkat
- Kasus kebocoran besar percakapan chatbot di Grok, kerentanan peretasan Perplexity, serta visi pelacakan pengguna menyeluruh dari Open AI terus diberitakan belakangan ini
- Dalam kasus Anthropic, sebelumnya penyimpanan percakapan chat dimatikan, tetapi baru-baru ini mereka mengubahnya sehingga pemanfaatan percakapan chat menjadi default, dan data pengguna dapat dipakai untuk pelatihan
Respons hukum dan tantangan ke depan
- Diperlukan legislasi cepat agar chat yang melindungi privasi menjadi praktik standar, bukan pengecualian
- Amerika Serikat bahkan masih belum memiliki undang-undang privasi online umum, dan ada keterbatasan karena hal ini juga tidak dijamin sebagai hak dasar konstitusional
- Belakangan ada suasana bahwa peluang legislasi AI di tingkat federal mulai terbuka, tetapi di saat yang sama juga ada pembahasan untuk melarang legislasi AI di tingkat negara bagian
- Ada kekhawatiran bahwa praktik buruk akan mengakar seiring penundaan waktu
- Untuk mencegah masalah seperti pelacakan online di masa lalu terulang sebagai pelacakan AI, pelarangan pengawasan AI diajukan sebagai tugas yang mendesak
Kesimpulan
- DuckDuckGo dan lainnya akan terus menyediakan layanan yang melindungi privasi serta fitur AI opsional
- Pengguna dapat mengharapkan alat online yang memungkinkan mereka menikmati keseimbangan antara peningkatan produktivitas dan perlindungan privasi
1 komentar
Komentar Hacker News