1 poin oleh GN⁺ 2026-03-01 | 1 komentar | Bagikan ke WhatsApp
  • Karyawan internal Google meminta penetapan batas etis yang jelas (garis merah) untuk proyek kecerdasan buatan (AI) militer
  • Mereka menyuarakan kekhawatiran atas perluasan kerja sama dengan Pentagon (Departemen Pertahanan AS), serta menilai perlu ada pembatasan atas cakupan penggunaan AI untuk keperluan militer
  • Tuntutan ini dinilai sebagai arus yang serupa dengan keputusan terbaru Anthropic yang menetapkan pembatasannya sendiri untuk AI militer
  • Para karyawan berpendapat bahwa perlu disusun pedoman yang jelas agar divisi AI Google, termasuk DeepMind, tidak terlibat dalam pengembangan senjata atau dukungan tempur
  • Di dalam perusahaan teknologi, diskusi internal soal batas antara etika AI dan kerja sama keamanan kembali mengemuka

Kekhawatiran karyawan Google soal AI militer

  • Karyawan Google menyuarakan kekhawatiran atas kemungkinan teknologi AI perusahaan digunakan untuk tujuan militer
    • Terutama di tengah meluasnya kerja sama dengan Pentagon, mereka menekankan perlunya aturan internal untuk mencegah penerapan AI pada senjata mematikan atau sistem tempur
  • Para karyawan menuntut penguatan pedoman etika dan penegasan bahwa pengembangan AI harus memiliki tujuan nonmiliter yang jelas

Perbandingan dengan Anthropic

  • Baru-baru ini, Anthropic mengumumkan langkah pembatasan internal terhadap AI militer
    • Tuntutan dari karyawan Google menunjukkan arah yang serupa dengan keputusan Anthropic tersebut
  • Kedua kasus ini dipandang sebagai gerakan pembenahan internal di industri teknologi untuk mencegah penyalahgunaan AI dalam ranah militer

Peran DeepMind dan diskusi internal

  • Kemungkinan DeepMind, yang berada di bawah Google, ikut serta dalam proyek terkait Pentagon menjadi topik pembahasan
  • Sejumlah karyawan menilai perlu ada garis merah yang tegas agar DeepMind tidak terlibat dalam pengembangan senjata atau sistem dukungan tempur

Ketegangan etis di perusahaan teknologi

  • Diskusi terbaru di internal Google kembali menyoroti ketegangan antara etika AI dan kerja sama keamanan nasional
  • Tuntutan para karyawan sekaligus mengangkat dua isu: tanggung jawab sosial perusahaan dan pembatasan pemanfaatan teknologi untuk kepentingan militer

Makna bagi industri secara luas

  • Kasus Anthropic dan Google menunjukkan arus di mana perusahaan AI sedang menata ulang standar internal terkait kerja sama militer
  • Ke depan, perusahaan teknologi lain juga kemungkinan akan dituntut untuk menetapkan kebijakan yang jelas terkait penggunaan AI untuk tujuan militer

1 komentar

 
GN⁺ 2026-03-01
Opini Hacker News
  • Saya memahami visinya, tetapi saya penasaran bagaimana ini akan bekerja pada skala global
    Misalnya, karyawan di AS menolak pengembangan senjata seperti ini, tetapi karyawan di Tiongkok mungkin tidak
    Sulit membayangkan bagaimana menyeimbangkan sentimen anti-perang pribadi dengan realitas dunia, terutama di tengah perlombaan senjata AI

    • Perlu dijelaskan dengan jelas ancaman seperti apa bagi dunia luar jika Tiongkok mempersenjatai AI, lalu membahas cara meresponsnya
      Logika bahwa kita harus mengejar kemampuan itu apa pun caranya berbahaya
      Keseimbangan antara sentimen anti-perang pribadi dan realitas harus dijaga melalui keterbukaan informasi, hak untuk menolak ikut serta secara sukarela, dan tuntutan legitimasi atas setiap keputusan
    • Tidak perlu khawatir. Kalau Google tidak melakukannya, xAI yang akan melakukannya
      Sebagai catatan, Anthropic tidak menolak semua proyek militer, melainkan mengambil pendekatan partisipasi bersyarat
    • Terlepas dari teori permainan, jika melihat realitasnya, bila Tiongkok mempersenjatai AI, ada kemungkinan itu akan digunakan ‘suatu saat nanti’
      tetapi jika AS mempersenjatainya, kemungkinan besar itu akan benar-benar digunakan untuk membunuh orang ‘tahun ini’
      Artinya, para pengembang di AS harus mempertimbangkan bahwa konsekuensinya adalah realitas yang langsung terjadi
    • Seperti dalam perlombaan senjata nuklir, ini harus dibatasi dan dikendalikan melalui perjanjian
      Meski begitu, akan lebih baik jika para pemimpin politik mulai bernegosiasi sebelum melampaui batas moral
    • Jika jumlah peserta berkurang, laju kemajuan juga melambat
      Dengan kata lain, jika insinyur-insinyur unggul menolak proyek yang tidak etis, peluang orang yang kurang terampil untuk melakukan hal buruk juga berkurang
      Seperti halnya pengembang white-hat tidak bekerja sama dengan peretas black-hat, ketidakikutsertaan yang etis memiliki efek pencegahan
  • Jika urusan seperti ini harus diserahkan hanya pada regulasi mandiri, rasanya memang sudah tidak ada harapan

    • Pada akhirnya, di tingkat paling atas semuanya memang bergantung pada regulasi mandiri
      Meski begitu, mengungkapkan keraguan moral seperti ini secara terbuka tetap merupakan kemajuan
      Percakapan semacam ini perlu menumpuk agar terbentuk konsensus sosial dan tuntutan perubahan
    • Situasinya sekarang begitu serius sehingga menurut saya, adanya regulasi mandiri tetap lebih baik daripada tidak ada sama sekali
      Jauh lebih baik daripada bertekuk lutut pada penguasa gila
  • Niatnya baik, tetapi kotak Pandora persenjataan AI sebenarnya sudah terbuka sejak lama

    • Ucapan seperti ini selalu muncul — “sekarang sudah mustahil dikendalikan”
      Namun kalau selalu begitu, umat manusia seharusnya sudah punah berkali-kali
      Kita tidak boleh kehilangan keyakinan bahwa pengendalian diri itu mungkin
    • Sebenarnya arus seperti ini sudah ada sejak awal
      Karena militer AS telah mendanai banyak proyek komputasi
  • Garis dasarnya seharusnya bukan “penggunaan terbatas di dalam negeri”, melainkan “jangan lakukan sama sekali

  • Kabar bahwa “100 karyawan Google memprotes” terasa mengesankan

    • Tetapi hal seperti ini sering kali beralih menjadi proyek rahasia, dan orang-orang yang terlibat pada akhirnya kemungkinan besar akan dipecat
      Mungkin sekitar 2027 semuanya akan dibereskan secara diam-diam
    • Saya dengar sebenarnya sekitar 200 orang
    • Namun tetap saja, setiap perubahan selalu dimulai dari sejumlah kecil orang yang berani
  • Melihat pernyataan politik Jeff Dean, tampaknya ia lebih dekat ke pihak yang menolak
    Tetapi belum jelas apakah seluruh jajaran manajemen akan mengikuti posisi itu

    • Namun, saat ada warga AS yang menjadi korban senjata otonom, perlawanan seperti ini akan lenyap
      Agar itu tidak terjadi, kita harus mencegahnya semaksimal mungkin mulai sekarang
  • Artikel New York Times: perang Ukraina dan peran drone AI

  • Saya hampir tidak percaya Google akan mempertahankan sikap berprinsip sampai akhir

  • Yang menarik adalah, Departemen Pertahanan menetapkan Anthropic sebagai perusahaan berisiko dalam rantai pasok, tetapi tetap memberi kontrak kepada OpenAI
    Kebijakan pelarangan kedua perusahaan itu hampir sama, jadi saya bertanya-tanya mengapa ada perlakuan berbeda seperti itu

  • Mengejutkan bahwa diskusi seperti ini sudah seakan dilupakan
    Menurut artikel The Guardian,
    baik Google maupun OpenAI sudah memiliki kontrak pertahanan
    Jika tidak setuju dengan itu, memang seharusnya keluar dari perusahaan, tetapi kenyataannya hampir tidak ada yang akan benar-benar melakukannya

    • Saya justru berpikir lebih baik tetap tinggal dan melawan dengan bekerja secara diam-diam menjadi tidak efisien