2 poin oleh GN⁺ 2025-04-05 | 1 komentar | Bagikan ke WhatsApp
  • OSINT (analisis intelijen sumber terbuka) pada awalnya adalah sebuah ‘permainan berpikir’
  • Belakangan ini, hal itu makin berubah menjadi ‘permainan kepercayaan’ yang semakin bergantung pada alat AI
  • Dimulai dari peringkasan dokumen, penerjemahan, dan penulisan laporan, lalu bergeser menjadi investigasi yang dipimpin AI sehingga pemikiran kritis berkurang
  • Di dalam ilusi bahwa kita “bekerja lebih cerdas”, proses berpikir yang sebenarnya justru sedang runtuh

Perubahan yang dibawa oleh penyebaran AI

  • Penulis sendiri juga menggunakan ChatGPT, Copilot, Claude, Gemini, dan lainnya setiap hari
  • Masalahnya adalah para analis mulai melewati proses yang sulit dan menyerahkan pemikiran kepada AI
  • Dalam OSINT, yang penting bukan hanya kecepatan, melainkan kemampuan menilai, dan kemampuan itu tidak bisa diberikan oleh model
  • Jika kebiasaan kritis tidak dijaga, seseorang akan berubah dari penyelidik menjadi operator otomatisasi

Hasil riset yang wajib dibaca semua orang

  • Pada awal 2025, tim Carnegie Mellon dan Microsoft Research merilis penelitian terhadap 319 pekerja pengetahuan
  • Hasilnya: makin tinggi kepercayaan pada AI, makin rendah kecenderungan berpikir kritis
  • Sebaliknya, orang yang lebih percaya diri pada dirinya sendiri cenderung lebih banyak bertanya dan memverifikasi
  • Kepercayaan pada AI pada akhirnya berkaitan dengan pelepasan pemikiran diri sendiri

Fenomena yang muncul dalam pekerjaan nyata

  • Terjadi pergeseran dari membangun hipotesis sendiri menjadi meminta ide kepada AI
  • Alih-alih memverifikasi sumber, orang menganggap AI pasti sudah melakukannya
  • Alih-alih menilai berbagai sudut pandang, orang hanya mengedit ringkasan AI lalu selesai
  • Bahkan para ahli pun makin terbiasa dengan cara ini dan sering berhenti berpikir

Contoh penyalahgunaan AI dalam OSINT

Kegagalan verifikasi gambar

  • Sebuah foto demonstrasi diunggah ke Gemini dan saat ditanya “foto ini di mana?”, AI menjawab ‘Paris’
  • Padahal dari rambu, pelat nomor, dan gaya arsitektur, jelas itu Belgia, tetapi karena terlalu percaya pada AI, terjadilah salah penilaian

Distorsi profil individu

  • Saat aktivitas online seseorang diringkas dengan Claude, ia digambarkan sebagai “aktivis, pekerja teknologi, sosok yang tidak berbahaya”
  • Riwayat aktivitas di forum sayap kanan ekstrem terlewatkan → berisiko membuat orang itu dipilih sebagai pembicara acara tanpa verifikasi

Kegagalan analisis kampanye disinformasi

  • Pesan Telegram dimasukkan ke ChatGPT untuk diminta ringkasan dan analisis pola
  • Yang muncul hanya kata kunci, sementara pola bahasa kelompok manipulasi informasi Rusia justru terlewat

Ancaman yang dihadapi analis OSINT

  • Semua contoh di atas adalah kemungkinan kegagalan OSINT yang sangat realistis
  • Masalahnya, para analis itu bukan jahat atau malas, melainkan terlalu percaya pada alat
  • AI tidak dapat menggantikan kemampuan investigasi, dan penggunaan tanpa sikap kritis membuat OSINT menjadi berbahaya

Keahlian OSINT yang sedang sekarat (tradecraft)

  • Keahlian bukanlah ‘daftar alat’, melainkan kebiasaan berpikir untuk meragukan dan memeriksa
  • Naluri untuk melihat ulang saat ada yang terasa aneh, memeriksa metadata, dan mendeteksi ketidaksesuaian bahasa
  • AI membuat pekerjaan terlihat mudah, sekaligus menghapus proses berpikir
  • Di balik kenyamanan, keahlian perlahan menghilang

Perbandingan analis dulu dan sekarang

Dulu:

  • Menganalisis gambar buram dengan berbagai alat, memeriksa informasi EXIF, dan melakukan pencarian balik dengan landmark
  • Menerjemahkan postingan berbahasa asing secara manual, melacak hashtag, dan memeriksa riwayat aktivitas akun
  • Menganalisis WHOIS domain, melacak subdomain, dan menyelidiki keterkaitan email

Sekarang:

  • Memasukkan gambar ke AI, mengecek lokasi, lalu lanjut begitu saja
  • Menyuruh AI merangkum postingan lalu langsung memakainya
  • Bertanya kepada AI “siapa yang mengoperasikan domain ini?” lalu mempercayai jawabannya

Dampak dari hilangnya keahlian

  • Hilangnya kemampuan berpikir kontekstual, verifikasi silang antar-sumber, pengujian hipotesis, dan penelusuran mendalam
  • AI menimbulkan ilusi melalui kalimat yang meyakinkan dan rasa percaya diri yang palsu
  • Pihak jahat memanfaatkan kelemahan AI dengan menyuntikkan data yang telah dimanipulasi

Peran baru analis: pengawas AI

  • GenAI tidak akan hilang; masalah muncul ketika ia diperlakukan bukan sebagai ‘asisten’, melainkan sebagai ‘standar penilaian’
  • Kini analis perlu berperan untuk menguji, memverifikasi, dan meragukan AI
  • Mereka harus menjadi bukan “orang yang mencari jawaban”, melainkan “orang yang membongkar jawaban”

Perubahan pola pikir analis

  • Jika dulu perannya sekadar melempar pertanyaan ke AI dan menerima jawaban,
    kini perannya harus berubah menjadi menginterogasi dan memverifikasi dengan cermat jawaban yang diberikan AI
  • Jika dulu orang hanya menerima begitu saja isi ringkasan dari AI,
    kini mereka harus membedah ringkasan itu secara rinci dan menganalisis informasi apa yang hilang serta interpretasi apa yang disisipkan
  • Jika dulu banyak yang langsung memakai atau mengikuti saran dari AI,
    kini dibutuhkan pekerjaan untuk mengurai mengapa saran itu muncul lalu menyusunnya kembali
  • Jika dulu ada kecenderungan untuk mempercayai jawaban AI yang rapi dan terdengar pasti,
    kini orang harus menelusuri dari mana jawaban itu berasal dan sumber apa yang mendasarinya, meski prosesnya kotor dan rumit
  • Jika dulu pembuatan profil seseorang atau suatu peristiwa diserahkan kepada AI,
    kini yang penting adalah memverifikasi sendiri apakah narasi dalam profil itu sesuai dengan konteks nyata
  • Jika dulu selama AI membuat draf dengan baik, draf itu langsung diserahkan,
    kini diperlukan proses membongkar draf itu, menemukan masalahnya, lalu merakitnya kembali agar benar-benar menjadi milik sendiri

Cara menghidupkan kembali pemikiran kritis

Sengaja menambahkan ‘gesekan’

  • Hasil yang terlalu cepat itu berbahaya
  • Bahkan untuk informasi yang diberikan AI, jalankan tetap prosedur verifikasi yang biasa saya lakukan

Taktik:

  • “Kalau tidak ada AI, apa yang akan saya lakukan?” → jalankan pekerjaan itu sungguhan
  • Sengaja mencari contoh yang bertentangan untuk menguji apakah output AI benar
  • Minta model lain, “coba berikan interpretasi yang sepenuhnya berlawanan”

Memulihkan kebiasaan memeriksa sumber

  • GenAI tidak memberikan sitasi ala OSINT
  • Nama, tautan, dan kutipan yang diberikan model wajib ditelusuri balik

Taktik:

  • Bandingkan hasil AI vs. sumber asli secara berdampingan
  • Meski melihat ringkasan, teks aslinya tetap harus dibuka

Perlakukan AI sebagai ‘mitra berpikir’

  • AI hanyalah analis junior dan tetap membutuhkan supervisi

Taktik:

  • Minta AI membantah hipotesis saya
  • Berikan catatan investigasi saya dan minta AI menunjukkan bagian yang terlewat
  • Gunakan AI untuk mensimulasikan berbagai sudut pandang

Perbandingan antar-model

  • Bandingkan output ChatGPT, Claude, Gemini, dan Copilot
  • Anggap perbedaan sebagai sinyal lalu telusuri penyebabnya

Sengaja ‘merusak’ model

  • Ajukan pertanyaan yang sengaja kontradiktif atau ambigu
  • Pahami pola munculnya kesalahan → lalu lengkapi dengan penilaian manusia

Tetap mengerjakan ‘pekerjaan sulit’

  • AI adalah alat bantu; pekerjaan inti tetap harus dilakukan sendiri

Taktik:

  • Coba lakukan geolokasi sendiri sebelum memakai AI
  • Tulis ringkasan sendiri sebelum melihat ringkasan AI
  • Sebelum membuat profil dengan AI, lakukan profiling sendiri dulu lalu bandingkan

Keruntuhan yang sunyi dan cara melawannya

  • Keruntuhan pemikiran kritis tidak datang secara tiba-tiba
  • Semakin cepat dan semakin rapi laporan terlihat, justru bisa menjadi tanda bahaya
  • Informasi yang tampak seperti jawaban benar, lalu dipercaya tanpa pengecekan, adalah kebiasaan yang berbahaya

Namun, semua ini masih bisa dibalikkan

  • Tidak perlu menyingkirkan AI
  • Sebaliknya, AI harus dihadapi, diragukan, dan dibantah
  • Anda bukan ‘pengguna alat’, melainkan ‘penyelidik’

✅ Checklist pencegahan penyalahgunaan AI dalam OSINT

  • ✅ Apakah Anda telah menelusuri sumber asli dari output AI?
  • ✅ Apakah Anda telah merujuk ke sumber non-AI sebelum menerima hasil AI?
  • ✅ Apakah Anda telah menantang hasil itu dengan hipotesis tandingan atau model lain?
  • ✅ Apakah Anda telah melakukan verifikasi silang melalui dua atau lebih sumber manusia?
  • ✅ Apakah Anda telah menjalankan setidaknya satu tugas secara manual?
  • ✅ Apakah Anda telah memeriksa apakah ada asumsi implisit dalam output AI?
  • ✅ Apakah Anda telah memperlakukan AI bukan sebagai sumber kebenaran, melainkan sebagai mitra berpikir?
  • ✅ Apakah Anda sengaja memperlambat proses verifikasi?
  • ✅ Apakah Anda bertanya pada diri sendiri, “apa yang saya percayai tanpa verifikasi?”
  • ✅ Apakah Anda secara jelas memberi tahu pembaca apakah AI digunakan dalam hasil OSINT kita?

1 komentar

 
GN⁺ 2025-04-05
Opini Hacker News

• Para peserta bukan malas. Mereka adalah profesional berpengalaman

  • Menganggap bahwa mereka adalah pemikir kritis yang hebat sebelum AI muncul adalah pembesaran
  • Menurut pengalaman saya, orang-orang yang mengalihdayakan proses berpikir ke LLM adalah orang yang sebelumnya juga mengalihdayakan pikirannya ke podcast, artikel berita, posting Reddit, Twitter, TikTok, dan sebagainya
  • LLM memberi mereka opini yang bisa mereka ulangi

• Bagian yang menakutkan adalah banyak pengguna percaya bahwa mereka sedang berpikir kritis berkat GenAI

  • Ini tidak jauh berbeda dari merasa diri menjadi ahli hanya karena menonton video TikTok
  • Orang-orang yang mengalihdayakan pemikiran dan mengumpulkan opini yang ingin mereka dengar kini bisa lebih mudah mencapai kesimpulan yang mereka inginkan

• Masalah besar dalam open source intelligence bukanlah analisis mendalam, melainkan menemukan hal yang layak dilihat di tengah banjir informasi

  • Dari sudut pandang CIA, komunitas intelijen AS menggunakan sistem AI generatif bernama OSIRIS untuk menganalisis informasi sumber terbuka
  • Mantan kepala CIA mengatakan bahwa sistem itu terutama digunakan untuk peringkasan

• Alih-alih membangun hipotesis, pengguna meminta ide kepada AI

  • Alih-alih memverifikasi sumber, mereka berasumsi AI sudah memverifikasinya
  • Alih-alih menilai berbagai sudut pandang, mereka menggabungkan dan menyunting ringkasan AI lalu melanjutkan
  • Ini bukan situasi hipotetis, melainkan sesuatu yang benar-benar sedang terjadi

• Saya pikir tindakan fisik dan momen saat menulis atau melakukan analisis itu penting

  • Membawa gambar buram ke perangkat lunak penyunting foto dan menggunakan alat manipulasi merupakan bagian penting untuk memecahkan masalah
  • Saya sedang membuat diagram alur proses untuk lini manufaktur produk baru
  • Ide dan pertanyaan tampaknya muncul dari ruang-ruang kecil seperti ini

• Ini adalah salah satu cara AI bisa mencapai kecerdasan supermanusia dengan membuat manusia menjadi lebih bodoh

  • Penggunaan GenAI tampak lebih seperti sesuatu yang merugikan daripada alat yang berguna
  • Dalam skenario mengunggah foto lalu menanyakan lokasinya, AI memberikan lokasi yang salah

• Saya merasa AI memperlambat kecepatan belajar

  • Saya sedang belajar Rust, dan AI memang membantu untuk memulai, tetapi butuh waktu lebih lama untuk mencapai kemampuan bekerja
  • Rasanya saya perlu mematikan AI dan berjuang sendiri

• Saya telah bekerja lebih dari 20 tahun sebagai analis dan menggunakan OSINT serta AI

  • Sebagian besar analis memang memiliki kemampuan berpikir kritis
  • Karena OSINT tidak selalu dikendalikan oleh prosedur hukum, banyak orang bisa menjadi analis OSINT
  • Ada tekanan untuk tunduk pada saran AI

• OSINT dan analisis adalah keterampilan profesional dengan metodologi

  • OSINT bersama AI memungkinkan hal-hal yang sebelumnya mustahil
  • Kurangnya pemikiran kritis mungkin disebabkan oleh berkurangnya personel atau proses untuk verifikasi data

• Jika ingin memahami dasar-dasar OSINT, saya akan mengunjungi situs webnya

  • Tetapi kueri chatgpt sederhana akan memberikan jawaban lebih cepat

• Postingan ini tidak terbatas pada OSINT dan dapat diterapkan secara luas di mana pun AI diadopsi sebagai alat baru