OSINT mengalami keruntuhan bertahap dalam berpikir kritis akibat AI
(dutchosintguy.com)- OSINT (analisis intelijen sumber terbuka) pada awalnya adalah sebuah ‘permainan berpikir’
- Belakangan ini, hal itu makin berubah menjadi ‘permainan kepercayaan’ yang semakin bergantung pada alat AI
- Dimulai dari peringkasan dokumen, penerjemahan, dan penulisan laporan, lalu bergeser menjadi investigasi yang dipimpin AI sehingga pemikiran kritis berkurang
- Di dalam ilusi bahwa kita “bekerja lebih cerdas”, proses berpikir yang sebenarnya justru sedang runtuh
Perubahan yang dibawa oleh penyebaran AI
- Penulis sendiri juga menggunakan ChatGPT, Copilot, Claude, Gemini, dan lainnya setiap hari
- Masalahnya adalah para analis mulai melewati proses yang sulit dan menyerahkan pemikiran kepada AI
- Dalam OSINT, yang penting bukan hanya kecepatan, melainkan kemampuan menilai, dan kemampuan itu tidak bisa diberikan oleh model
- Jika kebiasaan kritis tidak dijaga, seseorang akan berubah dari penyelidik menjadi operator otomatisasi
Hasil riset yang wajib dibaca semua orang
- Pada awal 2025, tim Carnegie Mellon dan Microsoft Research merilis penelitian terhadap 319 pekerja pengetahuan
- Hasilnya: makin tinggi kepercayaan pada AI, makin rendah kecenderungan berpikir kritis
- Sebaliknya, orang yang lebih percaya diri pada dirinya sendiri cenderung lebih banyak bertanya dan memverifikasi
- Kepercayaan pada AI pada akhirnya berkaitan dengan pelepasan pemikiran diri sendiri
Fenomena yang muncul dalam pekerjaan nyata
- Terjadi pergeseran dari membangun hipotesis sendiri menjadi meminta ide kepada AI
- Alih-alih memverifikasi sumber, orang menganggap AI pasti sudah melakukannya
- Alih-alih menilai berbagai sudut pandang, orang hanya mengedit ringkasan AI lalu selesai
- Bahkan para ahli pun makin terbiasa dengan cara ini dan sering berhenti berpikir
Contoh penyalahgunaan AI dalam OSINT
Kegagalan verifikasi gambar
- Sebuah foto demonstrasi diunggah ke Gemini dan saat ditanya “foto ini di mana?”, AI menjawab ‘Paris’
- Padahal dari rambu, pelat nomor, dan gaya arsitektur, jelas itu Belgia, tetapi karena terlalu percaya pada AI, terjadilah salah penilaian
Distorsi profil individu
- Saat aktivitas online seseorang diringkas dengan Claude, ia digambarkan sebagai “aktivis, pekerja teknologi, sosok yang tidak berbahaya”
- Riwayat aktivitas di forum sayap kanan ekstrem terlewatkan → berisiko membuat orang itu dipilih sebagai pembicara acara tanpa verifikasi
Kegagalan analisis kampanye disinformasi
- Pesan Telegram dimasukkan ke ChatGPT untuk diminta ringkasan dan analisis pola
- Yang muncul hanya kata kunci, sementara pola bahasa kelompok manipulasi informasi Rusia justru terlewat
Ancaman yang dihadapi analis OSINT
- Semua contoh di atas adalah kemungkinan kegagalan OSINT yang sangat realistis
- Masalahnya, para analis itu bukan jahat atau malas, melainkan terlalu percaya pada alat
- AI tidak dapat menggantikan kemampuan investigasi, dan penggunaan tanpa sikap kritis membuat OSINT menjadi berbahaya
Keahlian OSINT yang sedang sekarat (tradecraft)
- Keahlian bukanlah ‘daftar alat’, melainkan kebiasaan berpikir untuk meragukan dan memeriksa
- Naluri untuk melihat ulang saat ada yang terasa aneh, memeriksa metadata, dan mendeteksi ketidaksesuaian bahasa
- AI membuat pekerjaan terlihat mudah, sekaligus menghapus proses berpikir
- Di balik kenyamanan, keahlian perlahan menghilang
Perbandingan analis dulu dan sekarang
Dulu:
- Menganalisis gambar buram dengan berbagai alat, memeriksa informasi EXIF, dan melakukan pencarian balik dengan landmark
- Menerjemahkan postingan berbahasa asing secara manual, melacak hashtag, dan memeriksa riwayat aktivitas akun
- Menganalisis WHOIS domain, melacak subdomain, dan menyelidiki keterkaitan email
Sekarang:
- Memasukkan gambar ke AI, mengecek lokasi, lalu lanjut begitu saja
- Menyuruh AI merangkum postingan lalu langsung memakainya
- Bertanya kepada AI “siapa yang mengoperasikan domain ini?” lalu mempercayai jawabannya
Dampak dari hilangnya keahlian
- Hilangnya kemampuan berpikir kontekstual, verifikasi silang antar-sumber, pengujian hipotesis, dan penelusuran mendalam
- AI menimbulkan ilusi melalui kalimat yang meyakinkan dan rasa percaya diri yang palsu
- Pihak jahat memanfaatkan kelemahan AI dengan menyuntikkan data yang telah dimanipulasi
Peran baru analis: pengawas AI
- GenAI tidak akan hilang; masalah muncul ketika ia diperlakukan bukan sebagai ‘asisten’, melainkan sebagai ‘standar penilaian’
- Kini analis perlu berperan untuk menguji, memverifikasi, dan meragukan AI
- Mereka harus menjadi bukan “orang yang mencari jawaban”, melainkan “orang yang membongkar jawaban”
Perubahan pola pikir analis
- Jika dulu perannya sekadar melempar pertanyaan ke AI dan menerima jawaban,
kini perannya harus berubah menjadi menginterogasi dan memverifikasi dengan cermat jawaban yang diberikan AI - Jika dulu orang hanya menerima begitu saja isi ringkasan dari AI,
kini mereka harus membedah ringkasan itu secara rinci dan menganalisis informasi apa yang hilang serta interpretasi apa yang disisipkan - Jika dulu banyak yang langsung memakai atau mengikuti saran dari AI,
kini dibutuhkan pekerjaan untuk mengurai mengapa saran itu muncul lalu menyusunnya kembali - Jika dulu ada kecenderungan untuk mempercayai jawaban AI yang rapi dan terdengar pasti,
kini orang harus menelusuri dari mana jawaban itu berasal dan sumber apa yang mendasarinya, meski prosesnya kotor dan rumit - Jika dulu pembuatan profil seseorang atau suatu peristiwa diserahkan kepada AI,
kini yang penting adalah memverifikasi sendiri apakah narasi dalam profil itu sesuai dengan konteks nyata - Jika dulu selama AI membuat draf dengan baik, draf itu langsung diserahkan,
kini diperlukan proses membongkar draf itu, menemukan masalahnya, lalu merakitnya kembali agar benar-benar menjadi milik sendiri
Cara menghidupkan kembali pemikiran kritis
Sengaja menambahkan ‘gesekan’
- Hasil yang terlalu cepat itu berbahaya
- Bahkan untuk informasi yang diberikan AI, jalankan tetap prosedur verifikasi yang biasa saya lakukan
Taktik:
- “Kalau tidak ada AI, apa yang akan saya lakukan?” → jalankan pekerjaan itu sungguhan
- Sengaja mencari contoh yang bertentangan untuk menguji apakah output AI benar
- Minta model lain, “coba berikan interpretasi yang sepenuhnya berlawanan”
Memulihkan kebiasaan memeriksa sumber
- GenAI tidak memberikan sitasi ala OSINT
- Nama, tautan, dan kutipan yang diberikan model wajib ditelusuri balik
Taktik:
- Bandingkan hasil AI vs. sumber asli secara berdampingan
- Meski melihat ringkasan, teks aslinya tetap harus dibuka
Perlakukan AI sebagai ‘mitra berpikir’
- AI hanyalah analis junior dan tetap membutuhkan supervisi
Taktik:
- Minta AI membantah hipotesis saya
- Berikan catatan investigasi saya dan minta AI menunjukkan bagian yang terlewat
- Gunakan AI untuk mensimulasikan berbagai sudut pandang
Perbandingan antar-model
- Bandingkan output ChatGPT, Claude, Gemini, dan Copilot
- Anggap perbedaan sebagai sinyal lalu telusuri penyebabnya
Sengaja ‘merusak’ model
- Ajukan pertanyaan yang sengaja kontradiktif atau ambigu
- Pahami pola munculnya kesalahan → lalu lengkapi dengan penilaian manusia
Tetap mengerjakan ‘pekerjaan sulit’
- AI adalah alat bantu; pekerjaan inti tetap harus dilakukan sendiri
Taktik:
- Coba lakukan geolokasi sendiri sebelum memakai AI
- Tulis ringkasan sendiri sebelum melihat ringkasan AI
- Sebelum membuat profil dengan AI, lakukan profiling sendiri dulu lalu bandingkan
Keruntuhan yang sunyi dan cara melawannya
- Keruntuhan pemikiran kritis tidak datang secara tiba-tiba
- Semakin cepat dan semakin rapi laporan terlihat, justru bisa menjadi tanda bahaya
- Informasi yang tampak seperti jawaban benar, lalu dipercaya tanpa pengecekan, adalah kebiasaan yang berbahaya
Namun, semua ini masih bisa dibalikkan
- Tidak perlu menyingkirkan AI
- Sebaliknya, AI harus dihadapi, diragukan, dan dibantah
- Anda bukan ‘pengguna alat’, melainkan ‘penyelidik’
✅ Checklist pencegahan penyalahgunaan AI dalam OSINT
- ✅ Apakah Anda telah menelusuri sumber asli dari output AI?
- ✅ Apakah Anda telah merujuk ke sumber non-AI sebelum menerima hasil AI?
- ✅ Apakah Anda telah menantang hasil itu dengan hipotesis tandingan atau model lain?
- ✅ Apakah Anda telah melakukan verifikasi silang melalui dua atau lebih sumber manusia?
- ✅ Apakah Anda telah menjalankan setidaknya satu tugas secara manual?
- ✅ Apakah Anda telah memeriksa apakah ada asumsi implisit dalam output AI?
- ✅ Apakah Anda telah memperlakukan AI bukan sebagai sumber kebenaran, melainkan sebagai mitra berpikir?
- ✅ Apakah Anda sengaja memperlambat proses verifikasi?
- ✅ Apakah Anda bertanya pada diri sendiri, “apa yang saya percayai tanpa verifikasi?”
- ✅ Apakah Anda secara jelas memberi tahu pembaca apakah AI digunakan dalam hasil OSINT kita?
1 komentar
Opini Hacker News
• Para peserta bukan malas. Mereka adalah profesional berpengalaman
• Bagian yang menakutkan adalah banyak pengguna percaya bahwa mereka sedang berpikir kritis berkat GenAI
• Masalah besar dalam open source intelligence bukanlah analisis mendalam, melainkan menemukan hal yang layak dilihat di tengah banjir informasi
• Alih-alih membangun hipotesis, pengguna meminta ide kepada AI
• Saya pikir tindakan fisik dan momen saat menulis atau melakukan analisis itu penting
• Ini adalah salah satu cara AI bisa mencapai kecerdasan supermanusia dengan membuat manusia menjadi lebih bodoh
• Saya merasa AI memperlambat kecepatan belajar
• Saya telah bekerja lebih dari 20 tahun sebagai analis dan menggunakan OSINT serta AI
• OSINT dan analisis adalah keterampilan profesional dengan metodologi
• Jika ingin memahami dasar-dasar OSINT, saya akan mengunjungi situs webnya
• Postingan ini tidak terbatas pada OSINT dan dapat diterapkan secara luas di mana pun AI diadopsi sebagai alat baru