- Karyawan internal Google meminta penetapan batas etis yang jelas (garis merah) untuk proyek kecerdasan buatan (AI) militer
- Mereka menyuarakan kekhawatiran atas perluasan kerja sama dengan Pentagon (Departemen Pertahanan AS), serta menilai perlu ada pembatasan atas cakupan penggunaan AI untuk keperluan militer
- Tuntutan ini dinilai sebagai arus yang serupa dengan keputusan terbaru Anthropic yang menetapkan pembatasannya sendiri untuk AI militer
- Para karyawan berpendapat bahwa perlu disusun pedoman yang jelas agar divisi AI Google, termasuk DeepMind, tidak terlibat dalam pengembangan senjata atau dukungan tempur
- Di dalam perusahaan teknologi, diskusi internal soal batas antara etika AI dan kerja sama keamanan kembali mengemuka
Kekhawatiran karyawan Google soal AI militer
- Karyawan Google menyuarakan kekhawatiran atas kemungkinan teknologi AI perusahaan digunakan untuk tujuan militer
- Terutama di tengah meluasnya kerja sama dengan Pentagon, mereka menekankan perlunya aturan internal untuk mencegah penerapan AI pada senjata mematikan atau sistem tempur
- Para karyawan menuntut penguatan pedoman etika dan penegasan bahwa pengembangan AI harus memiliki tujuan nonmiliter yang jelas
Perbandingan dengan Anthropic
- Baru-baru ini, Anthropic mengumumkan langkah pembatasan internal terhadap AI militer
- Tuntutan dari karyawan Google menunjukkan arah yang serupa dengan keputusan Anthropic tersebut
- Kedua kasus ini dipandang sebagai gerakan pembenahan internal di industri teknologi untuk mencegah penyalahgunaan AI dalam ranah militer
Peran DeepMind dan diskusi internal
- Kemungkinan DeepMind, yang berada di bawah Google, ikut serta dalam proyek terkait Pentagon menjadi topik pembahasan
- Sejumlah karyawan menilai perlu ada garis merah yang tegas agar DeepMind tidak terlibat dalam pengembangan senjata atau sistem dukungan tempur
Ketegangan etis di perusahaan teknologi
- Diskusi terbaru di internal Google kembali menyoroti ketegangan antara etika AI dan kerja sama keamanan nasional
- Tuntutan para karyawan sekaligus mengangkat dua isu: tanggung jawab sosial perusahaan dan pembatasan pemanfaatan teknologi untuk kepentingan militer
Makna bagi industri secara luas
- Kasus Anthropic dan Google menunjukkan arus di mana perusahaan AI sedang menata ulang standar internal terkait kerja sama militer
- Ke depan, perusahaan teknologi lain juga kemungkinan akan dituntut untuk menetapkan kebijakan yang jelas terkait penggunaan AI untuk tujuan militer
1 komentar
Opini Hacker News
Saya memahami visinya, tetapi saya penasaran bagaimana ini akan bekerja pada skala global
Misalnya, karyawan di AS menolak pengembangan senjata seperti ini, tetapi karyawan di Tiongkok mungkin tidak
Sulit membayangkan bagaimana menyeimbangkan sentimen anti-perang pribadi dengan realitas dunia, terutama di tengah perlombaan senjata AI
Logika bahwa kita harus mengejar kemampuan itu apa pun caranya berbahaya
Keseimbangan antara sentimen anti-perang pribadi dan realitas harus dijaga melalui keterbukaan informasi, hak untuk menolak ikut serta secara sukarela, dan tuntutan legitimasi atas setiap keputusan
Sebagai catatan, Anthropic tidak menolak semua proyek militer, melainkan mengambil pendekatan partisipasi bersyarat
tetapi jika AS mempersenjatainya, kemungkinan besar itu akan benar-benar digunakan untuk membunuh orang ‘tahun ini’
Artinya, para pengembang di AS harus mempertimbangkan bahwa konsekuensinya adalah realitas yang langsung terjadi
Meski begitu, akan lebih baik jika para pemimpin politik mulai bernegosiasi sebelum melampaui batas moral
Dengan kata lain, jika insinyur-insinyur unggul menolak proyek yang tidak etis, peluang orang yang kurang terampil untuk melakukan hal buruk juga berkurang
Seperti halnya pengembang white-hat tidak bekerja sama dengan peretas black-hat, ketidakikutsertaan yang etis memiliki efek pencegahan
Jika urusan seperti ini harus diserahkan hanya pada regulasi mandiri, rasanya memang sudah tidak ada harapan
Meski begitu, mengungkapkan keraguan moral seperti ini secara terbuka tetap merupakan kemajuan
Percakapan semacam ini perlu menumpuk agar terbentuk konsensus sosial dan tuntutan perubahan
Jauh lebih baik daripada bertekuk lutut pada penguasa gila
Niatnya baik, tetapi kotak Pandora persenjataan AI sebenarnya sudah terbuka sejak lama
Namun kalau selalu begitu, umat manusia seharusnya sudah punah berkali-kali
Kita tidak boleh kehilangan keyakinan bahwa pengendalian diri itu mungkin
Karena militer AS telah mendanai banyak proyek komputasi
Garis dasarnya seharusnya bukan “penggunaan terbatas di dalam negeri”, melainkan “jangan lakukan sama sekali”
Kabar bahwa “100 karyawan Google memprotes” terasa mengesankan
Mungkin sekitar 2027 semuanya akan dibereskan secara diam-diam
Melihat pernyataan politik Jeff Dean, tampaknya ia lebih dekat ke pihak yang menolak
Tetapi belum jelas apakah seluruh jajaran manajemen akan mengikuti posisi itu
Agar itu tidak terjadi, kita harus mencegahnya semaksimal mungkin mulai sekarang
Artikel New York Times: perang Ukraina dan peran drone AI
Saya hampir tidak percaya Google akan mempertahankan sikap berprinsip sampai akhir
Yang menarik adalah, Departemen Pertahanan menetapkan Anthropic sebagai perusahaan berisiko dalam rantai pasok, tetapi tetap memberi kontrak kepada OpenAI
Kebijakan pelarangan kedua perusahaan itu hampir sama, jadi saya bertanya-tanya mengapa ada perlakuan berbeda seperti itu
Mengejutkan bahwa diskusi seperti ini sudah seakan dilupakan
Menurut artikel The Guardian,
baik Google maupun OpenAI sudah memiliki kontrak pertahanan
Jika tidak setuju dengan itu, memang seharusnya keluar dari perusahaan, tetapi kenyataannya hampir tidak ada yang akan benar-benar melakukannya