Dia melihat kasus seseorang yang sekadar menyalin jawaban badger ke Chat, lalu mengirimkannya kembali ke issue sebagai jawaban yang sangat jelas terasa seperti ditulis AI. "Terima kasih atas tinjauan cepatnya. Benar bahwa PoC saya tidak menggunakan libcurl sehingga tidak bisa membuktikan bug cURL. Saya mencabut klaim overflow cookie dan mohon maaf atas kebingungan yang ditimbulkan. Tolong tutup laporan ini sebagai tidak valid. Jika membantu, saya bisa mengirimkan kode reproduksi C minimal yang benar-benar menjalankan parser cookie libcurl secara terpisah, dan memberi tahu fungsi/baris yang tepat di lib/cookie.c jika memang ada masalah." Isi seperti itu dikirim apa adanya
Sangat disayangkan bahwa perilaku salin-tempel sederhana seperti ini kini menjadi fenomena yang terlalu umum
Sepertinya ada sebagian orang di industri teknologi yang sengaja bertindak seperti ini demi pamer bahwa mereka memanfaatkan AI untuk "membuat AI ini berkontribusi ke proyek open source terkenal lewat PR". Artinya, sekarang pekerjaan yang dilakukan AI dilemparkan ke relawan OSS, sambil menghabiskan waktu para maintainer open source tanpa memastikan apakah itu benar-benar berfungsi
Ingin tahu apakah sejak awal ini dilakukan sepenuhnya oleh AI tanpa campur tangan manusia. Khawatir ke depannya CVS akan dipenuhi agen yang membuat akun lalu AI langsung mengirimkan 'bug' begitu saja
Dari kalimat seperti "terima kasih", "benar", tata bahasa yang sempurna, dan bagian yang dipenuhi rujukan teknis, jawaban itu sendiri juga terasa seperti ditulis AI
Sekarang kita bisa cepat menyadari jawaban AI seperti ini, jadi terasa seolah AI pada dasarnya gagal dalam tes Turing
"Saya dengar Anda sangat cepat dalam menghitung matematika"
Saya: "Ya, benar"
Pewawancara: "Berapa 14 x 27?"
Saya: "49"
Pewawancara: "Itu salah total"
Saya: "Tapi cepat, kan"
Akan bagus kalau ada bahasa kompilasi "almost-just-in-time (AIJIT)". Kalau waktunya tidak cukup, tinggal kembalikan jawaban acak saja
function getRandomNumber() {
return 4
}
Kode seperti ini adalah contoh yang benar-benar mengembalikan angka acak
Saat saya melakukan load test, respons dengan latensi paling rendah justru muncul ketika ada request yang salah
Saya penasaran di mana letak keseimbangan antara "seberapa banyak waktu pribadi saya dihemat" dan "seberapa banyak waktu orang lain yang saya buang" dalam 'revolusi' teknologi ini
Saya sendiri berkali-kali merasa bantuan AI sangat berguna (Claude Code, Gemini Deep Research, dan lain-lain). Tetapi manusia tetap harus terlibat di tengah proses, dan bahkan di lingkungan perusahaan tempat semua orang bisa dimintai pertanggungjawaban pun masalah seperti ini tetap terjadi. Jika memakai AI, maka tanggung jawab akhir saat mengajukan PR atau laporan HackerOne sepenuhnya harus ditanggung manusia. Dari yang saya lihat, terutama developer junior sering menyalin-tempel jawaban AI lalu mengirimkannya begitu saja, dan saya sebagai senior merasa perlu menghentikan perilaku ini dengan tegas. Bantuan AI tidak masalah, tetapi verifikasi akhir dan tanggung jawab harus dipegang manusia
Kalau jawaban yang ditulis AI oleh orang lain dimasukkan lagi ke alat AI saya untuk dijawab ulang, itu malah jadi model sirkulasi otomatis 'konversi energi-ke-uang' yang sempurna. Tidak ada yang benar-benar menghabiskan waktu, hanya energi yang terbuang. Model bisnis yang benar-benar sempurna
Sebenarnya hal seperti ini umum bukan hanya pada alat AI, tetapi juga pada alat pengeluaran baru (bagus untuk akuntansi, tetapi pengalaman pengguna buruk), proses peninjauan kontrak (bagus untuk legal atau infosec, tetapi merepotkan di SaaS yang dipakai semua orang), dan sebagainya. Selalu ada seseorang yang mencoba menghemat waktunya dengan memindahkan pekerjaannya ke orang lain
Kalau membuang waktu orang lain, pada akhirnya seseorang tetap harus memahami omong kosong buatan AI, jadi ada juga efek menjaga lapangan kerja
Jika mereka bahkan tidak menemukan kerentanan nyata dan hanya membuat orang lain kehilangan waktu, maka waktu yang mereka hemat itu sebenarnya tidak pernah ada
Kalimat seperti "Kami menghargai partisipasi Anda dan ingin memperjelas situasinya" benar-benar menjengkelkan karena memperlakukan campur tangan manusia itu sendiri seperti 'kondisi eksperimen'
Sikap seperti ini benar-benar tidak sopan
Rasanya perlu ada situs seperti base.org yang hanya mengumpulkan kutipan-kutipan AI
Melihat situasi seperti ini, respons para developer atau maintainer yang dengan itikad baik menanggapi dengan sungguh-sungguh terasa sangat sia-sia
Pada 2023 rasanya lebih sulit membedakan omong kosong yang ditulis AI. Saya bahkan tidak ingat sejak kapan ini jadi melimpah seperti sekarang
Seiring waktu, saya jadi bisa cepat membedakan konten buatan AI, terutama gambar, teks, dan kode. Tulisan ini juga dari awal sampai akhir sangat terasa 'gaya AI'. badger tampaknya menanganinya dengan sangat profesional, dan saya jadi penasaran bagaimana reaksi Linus Torvalds kalau menghadapi hal seperti ini
Kali ini sangat jelas sehingga bisa langsung ketahuan, tetapi memikirkan bahwa ke depan hal seperti ini akan makin licik terasa menyeramkan
Dari sudut pandang lain, kadang ada juga orang yang langsung menganggap sesuatu itu AI padahal belum tentu. Rasanya itu seperti mekanisme pertahanan ego untuk menghindari informasi atau realitas baru yang tidak cocok dengan persepsi atau cara berpikir mereka. Misalnya, baru-baru ini ada video dua kantong hitam dilempar dari jendela Gedung Putih, dan Trump saat menontonnya langsung menyebutnya sebagai "rekayasa AI". Terlepas dari apakah itu asli atau palsu, ini terlihat seperti bentuk baru dari kebiasaan asal menyalahkan AI lalu menjadikannya alat untuk berbohong. Menurut saya, alih-alih langsung bereaksi "ini AI", lebih produktif jika mengatakan "saya akan memeriksanya" lalu lanjut dulu. Pada akhirnya, budaya menyalahkan AI untuk hal-hal yang tidak bersalah seperti ini akan makin mencuci otak publik, sehingga orang bisa menolak isu yang benar-benar penting hanya dengan bersikeras bahwa itu manipulasi AI. Seperti dalam novel 1984, perang tidak pernah berakhir tetapi kadang menghilang, sekaligus dibingkai seolah tidak pernah ada. Media nyata/palsu yang dihasilkan AI dan agitasi publik yang mengikutinya tampaknya akan menjadi jauh lebih serius ke depan
Sikap merasa diri lebih pintar daripada developer trilobite lama hanya karena "paham AI" sepertinya akan menimbulkan lebih banyak masalah ke depan. Karena itu saya rasa ada alasan kenapa di sekolah dasar kalkulator tidak boleh langsung dipakai sejak awal
Ini persis sama dengan mentalitas "Saya paham React, jadi saya lebih pintar daripada para coder sebelum ledakan webapp"
Saya pikir ada baiknya jika pengajuan laporan kerentanan itu dibuat berbayar untuk pengguna. Tak peduli AI atau manusia, para spammer bisa memproduksi pekerjaannya secara massal dengan sangat murah dan menyerahkan verifikasinya ke orang lain, lalu sesekali keluar hasil yang bermakna sehingga secara keseluruhan tampak seperti memberi manfaat sosial. Tetapi secara total dampaknya negatif bagi masyarakat. Model seperti ini pada akhirnya akan hilang jika mengirim laporan itu memerlukan biaya
Kalau seperti itu, menurut saya itu justru cara klasik untuk menghalangi orang mengirim laporan
Menurut saya akan efektif kalau ada deposit kecil saat melapor. Jika benar menemukan bug cURL serius, saya dengan senang hati membayar deposit sekitar $2~5 untuk melaporkannya (apalagi peluang untuk mendapat imbalan akhirnya juga tinggi)
Para guru kini hampir setiap hari menghadapi situasi siswa menggunakan AI di hampir semua mata pelajaran. Ini sepenuhnya situasi yang sama
Kalau begitu, bukankah tinggal ditangani seperti guru sejak dulu menangani siswa yang melanggar aturan
Saya dengar "pelapornya diblokir dan akunnya juga tampaknya dihapus". Ada kekhawatiran ini bisa menjadi serangan phishing semacam pengujian pertahanan, mirip peretasan XZ utils, yang menguji celah dalam sistem perlindungan. cURL juga utilitas penting. Ini juga bisa menjadi cara untuk menguji kewaspadaan tim, kecepatan respons, dan beban kerja, seperti spam 419. Pada akhirnya ini bagian dari masalah DDoS yang dihasilkan AI, dan saya rasa perlu ada cara baru untuk memverifikasi PR, misalnya autentikasi jaringan reputasi berbasis Nostr
Belakangan ini saya juga sering melihat di Reddit (subreddit berukuran menengah) akun baru yang belum pernah saya lihat membuat posting pertanyaan yang terasa seperti potongan-potongan dari posting lama yang dijahit jadi satu. Topiknya memang pas, tetapi bentuknya bukan seperti sesuatu yang biasanya ditulis manusia, dan diam-diam disisipkan juga unsur drama manusia untuk memancing respons. Akun-akun seperti ini hampir selalu tidak pernah menanggapi komentar sama sekali, dan kalau pun menanggapi, sangat jelas itu AI. Karena alasan ini, saya sudah berhenti mengikuti setidaknya 6 komunitas dalam beberapa bulan terakhir
Baru-baru ini saya meluangkan 15 menit untuk menguji patch yang katanya memperbaiki bug UI Linux, tetapi ternyata isinya hanya jawaban yang mengisi properti palsu yang tidak relevan. Mereka cuma memasukkan issue GitHub ke ChatGPT lalu langsung mengirim hasilnya tanpa verifikasi sama sekali. Saya benar-benar bertanya-tanya kenapa orang melakukan ini
Pada akhirnya, pekerjaan seperti ini hanyalah untuk membangun rekam jejak "Saya berkontribusi ke proyek X, Y, Z". Bahkan sebelum munculnya LLM, sudah banyak kontribusi tak bermakna seperti PR perbaikan typo yang nyaris tidak membantu
Karena alasan ini, saya sejak awal mengecualikan pengguna AI dari pihak yang ingin saya ajak berinteraksi. Saya harus menghabiskan waktu puluhan kali lebih banyak untuk meninjau hasil halusinatif (keliru) yang mereka hasilkan, jadi tidak ada alasan untuk berbicara dengan komputer
Pada akhirnya, selalu saja ada seseorang di suatu tempat yang bertindak demi mendapatkan perahu yang lebih besar
1 komentar
Opini Hacker News
Dia melihat kasus seseorang yang sekadar menyalin jawaban badger ke Chat, lalu mengirimkannya kembali ke issue sebagai jawaban yang sangat jelas terasa seperti ditulis AI. "Terima kasih atas tinjauan cepatnya. Benar bahwa PoC saya tidak menggunakan libcurl sehingga tidak bisa membuktikan bug cURL. Saya mencabut klaim overflow cookie dan mohon maaf atas kebingungan yang ditimbulkan. Tolong tutup laporan ini sebagai tidak valid. Jika membantu, saya bisa mengirimkan kode reproduksi C minimal yang benar-benar menjalankan parser cookie libcurl secara terpisah, dan memberi tahu fungsi/baris yang tepat di lib/cookie.c jika memang ada masalah." Isi seperti itu dikirim apa adanya
Sangat disayangkan bahwa perilaku salin-tempel sederhana seperti ini kini menjadi fenomena yang terlalu umum
Sepertinya ada sebagian orang di industri teknologi yang sengaja bertindak seperti ini demi pamer bahwa mereka memanfaatkan AI untuk "membuat AI ini berkontribusi ke proyek open source terkenal lewat PR". Artinya, sekarang pekerjaan yang dilakukan AI dilemparkan ke relawan OSS, sambil menghabiskan waktu para maintainer open source tanpa memastikan apakah itu benar-benar berfungsi
Ingin tahu apakah sejak awal ini dilakukan sepenuhnya oleh AI tanpa campur tangan manusia. Khawatir ke depannya CVS akan dipenuhi agen yang membuat akun lalu AI langsung mengirimkan 'bug' begitu saja
Dari kalimat seperti "terima kasih", "benar", tata bahasa yang sempurna, dan bagian yang dipenuhi rujukan teknis, jawaban itu sendiri juga terasa seperti ditulis AI
Sekarang kita bisa cepat menyadari jawaban AI seperti ini, jadi terasa seolah AI pada dasarnya gagal dalam tes Turing
"Saya dengar Anda sangat cepat dalam menghitung matematika" Saya: "Ya, benar" Pewawancara: "Berapa 14 x 27?" Saya: "49" Pewawancara: "Itu salah total" Saya: "Tapi cepat, kan"
Akan bagus kalau ada bahasa kompilasi "almost-just-in-time (AIJIT)". Kalau waktunya tidak cukup, tinggal kembalikan jawaban acak saja
Kode seperti ini adalah contoh yang benar-benar mengembalikan angka acak
Saat saya melakukan load test, respons dengan latensi paling rendah justru muncul ketika ada request yang salah
Situasinya terasa seperti video "Is this your card?"(https://www.youtube.com/watch?v=4SI3GiPihQ4): "Apakah ini kartu Anda?" "Bukan, tapi sangat dekat! Itu orang yang Anda cari"
Saya penasaran di mana letak keseimbangan antara "seberapa banyak waktu pribadi saya dihemat" dan "seberapa banyak waktu orang lain yang saya buang" dalam 'revolusi' teknologi ini
Saya sendiri berkali-kali merasa bantuan AI sangat berguna (Claude Code, Gemini Deep Research, dan lain-lain). Tetapi manusia tetap harus terlibat di tengah proses, dan bahkan di lingkungan perusahaan tempat semua orang bisa dimintai pertanggungjawaban pun masalah seperti ini tetap terjadi. Jika memakai AI, maka tanggung jawab akhir saat mengajukan PR atau laporan HackerOne sepenuhnya harus ditanggung manusia. Dari yang saya lihat, terutama developer junior sering menyalin-tempel jawaban AI lalu mengirimkannya begitu saja, dan saya sebagai senior merasa perlu menghentikan perilaku ini dengan tegas. Bantuan AI tidak masalah, tetapi verifikasi akhir dan tanggung jawab harus dipegang manusia
Kalau jawaban yang ditulis AI oleh orang lain dimasukkan lagi ke alat AI saya untuk dijawab ulang, itu malah jadi model sirkulasi otomatis 'konversi energi-ke-uang' yang sempurna. Tidak ada yang benar-benar menghabiskan waktu, hanya energi yang terbuang. Model bisnis yang benar-benar sempurna
Sebenarnya hal seperti ini umum bukan hanya pada alat AI, tetapi juga pada alat pengeluaran baru (bagus untuk akuntansi, tetapi pengalaman pengguna buruk), proses peninjauan kontrak (bagus untuk legal atau infosec, tetapi merepotkan di SaaS yang dipakai semua orang), dan sebagainya. Selalu ada seseorang yang mencoba menghemat waktunya dengan memindahkan pekerjaannya ke orang lain
Kalau membuang waktu orang lain, pada akhirnya seseorang tetap harus memahami omong kosong buatan AI, jadi ada juga efek menjaga lapangan kerja
Jika mereka bahkan tidak menemukan kerentanan nyata dan hanya membuat orang lain kehilangan waktu, maka waktu yang mereka hemat itu sebenarnya tidak pernah ada
Ada contoh yang jauh lebih parah
https://hackerone.com/reports/2298307
Kalimat seperti "Kami menghargai partisipasi Anda dan ingin memperjelas situasinya" benar-benar menjengkelkan karena memperlakukan campur tangan manusia itu sendiri seperti 'kondisi eksperimen'
Sikap seperti ini benar-benar tidak sopan
Rasanya perlu ada situs seperti base.org yang hanya mengumpulkan kutipan-kutipan AI
Melihat situasi seperti ini, respons para developer atau maintainer yang dengan itikad baik menanggapi dengan sungguh-sungguh terasa sangat sia-sia
Pada 2023 rasanya lebih sulit membedakan omong kosong yang ditulis AI. Saya bahkan tidak ingat sejak kapan ini jadi melimpah seperti sekarang
Seiring waktu, saya jadi bisa cepat membedakan konten buatan AI, terutama gambar, teks, dan kode. Tulisan ini juga dari awal sampai akhir sangat terasa 'gaya AI'. badger tampaknya menanganinya dengan sangat profesional, dan saya jadi penasaran bagaimana reaksi Linus Torvalds kalau menghadapi hal seperti ini
Kali ini sangat jelas sehingga bisa langsung ketahuan, tetapi memikirkan bahwa ke depan hal seperti ini akan makin licik terasa menyeramkan
Dari sudut pandang lain, kadang ada juga orang yang langsung menganggap sesuatu itu AI padahal belum tentu. Rasanya itu seperti mekanisme pertahanan ego untuk menghindari informasi atau realitas baru yang tidak cocok dengan persepsi atau cara berpikir mereka. Misalnya, baru-baru ini ada video dua kantong hitam dilempar dari jendela Gedung Putih, dan Trump saat menontonnya langsung menyebutnya sebagai "rekayasa AI". Terlepas dari apakah itu asli atau palsu, ini terlihat seperti bentuk baru dari kebiasaan asal menyalahkan AI lalu menjadikannya alat untuk berbohong. Menurut saya, alih-alih langsung bereaksi "ini AI", lebih produktif jika mengatakan "saya akan memeriksanya" lalu lanjut dulu. Pada akhirnya, budaya menyalahkan AI untuk hal-hal yang tidak bersalah seperti ini akan makin mencuci otak publik, sehingga orang bisa menolak isu yang benar-benar penting hanya dengan bersikeras bahwa itu manipulasi AI. Seperti dalam novel 1984, perang tidak pernah berakhir tetapi kadang menghilang, sekaligus dibingkai seolah tidak pernah ada. Media nyata/palsu yang dihasilkan AI dan agitasi publik yang mengikutinya tampaknya akan menjadi jauh lebih serius ke depan
Sikap merasa diri lebih pintar daripada developer trilobite lama hanya karena "paham AI" sepertinya akan menimbulkan lebih banyak masalah ke depan. Karena itu saya rasa ada alasan kenapa di sekolah dasar kalkulator tidak boleh langsung dipakai sejak awal
Saya pikir ada baiknya jika pengajuan laporan kerentanan itu dibuat berbayar untuk pengguna. Tak peduli AI atau manusia, para spammer bisa memproduksi pekerjaannya secara massal dengan sangat murah dan menyerahkan verifikasinya ke orang lain, lalu sesekali keluar hasil yang bermakna sehingga secara keseluruhan tampak seperti memberi manfaat sosial. Tetapi secara total dampaknya negatif bagi masyarakat. Model seperti ini pada akhirnya akan hilang jika mengirim laporan itu memerlukan biaya
Kalau seperti itu, menurut saya itu justru cara klasik untuk menghalangi orang mengirim laporan
Menurut saya akan efektif kalau ada deposit kecil saat melapor. Jika benar menemukan bug cURL serius, saya dengan senang hati membayar deposit sekitar $2~5 untuk melaporkannya (apalagi peluang untuk mendapat imbalan akhirnya juga tinggi)
Para guru kini hampir setiap hari menghadapi situasi siswa menggunakan AI di hampir semua mata pelajaran. Ini sepenuhnya situasi yang sama
Saya dengar "pelapornya diblokir dan akunnya juga tampaknya dihapus". Ada kekhawatiran ini bisa menjadi serangan phishing semacam pengujian pertahanan, mirip peretasan XZ utils, yang menguji celah dalam sistem perlindungan. cURL juga utilitas penting. Ini juga bisa menjadi cara untuk menguji kewaspadaan tim, kecepatan respons, dan beban kerja, seperti spam 419. Pada akhirnya ini bagian dari masalah DDoS yang dihasilkan AI, dan saya rasa perlu ada cara baru untuk memverifikasi PR, misalnya autentikasi jaringan reputasi berbasis Nostr
Baru-baru ini saya meluangkan 15 menit untuk menguji patch yang katanya memperbaiki bug UI Linux, tetapi ternyata isinya hanya jawaban yang mengisi properti palsu yang tidak relevan. Mereka cuma memasukkan issue GitHub ke ChatGPT lalu langsung mengirim hasilnya tanpa verifikasi sama sekali. Saya benar-benar bertanya-tanya kenapa orang melakukan ini
Pada akhirnya, pekerjaan seperti ini hanyalah untuk membangun rekam jejak "Saya berkontribusi ke proyek X, Y, Z". Bahkan sebelum munculnya LLM, sudah banyak kontribusi tak bermakna seperti PR perbaikan typo yang nyaris tidak membantu
Karena alasan ini, saya sejak awal mengecualikan pengguna AI dari pihak yang ingin saya ajak berinteraksi. Saya harus menghabiskan waktu puluhan kali lebih banyak untuk meninjau hasil halusinatif (keliru) yang mereka hasilkan, jadi tidak ada alasan untuk berbicara dengan komputer
Pada akhirnya, selalu saja ada seseorang di suatu tempat yang bertindak demi mendapatkan perahu yang lebih besar