- Sejak peluncuran ChatGPT, layanan chatbot AI generatif telah terintegrasi ke mesin pencari, alat pengembangan, dan perangkat lunak perkantoran, sehingga menjadi bagian dari komputasi sehari-hari; kebiasaan mempercayai output tanpa peninjauan dapat berbahaya secara sosial
- Hukum kebalikan robotika adalah prinsip yang diterapkan bukan pada robot atau AI, melainkan pada manusia, sebagai pedoman untuk menjaga manusia tetap aman saat berinteraksi dengan mesin, program, layanan, dan sistem AI yang menjalankan tugas kompleks secara otomatis
- Prinsip pertama adalah tidak mengantropomorfisasi, yaitu tidak memberi AI emosi, niat, atau agensi moral, serta tidak keliru menganggap percakapan chatbot yang sopan dan empatik sebagai pemahaman atau penilaian yang nyata
- Prinsip kedua adalah tidak percaya membabi buta, yaitu tidak memperlakukan konten yang dihasilkan AI sebagai otoritatif tanpa verifikasi independen; semakin halus kesalahan namun semakin besar biayanya, semakin besar pula beban pemeriksaan seperti proof checker, unit test, atau verifikasi langsung
- Prinsip ketiga adalah larangan melepaskan tanggung jawab; AI adalah alat yang tidak memilih tujuan atau menanggung biaya kegagalan, sehingga manusia dan organisasi yang memutuskan mengikuti rekomendasi AI tetap harus bertanggung jawab atas hasilnya
Risiko yang muncul dari penggunaan AI generatif
- Setelah ChatGPT dirilis pada November 2022, layanan chatbot AI generatif menjadi semakin canggih dan populer, terintegrasi ke mesin pencari, alat pengembangan perangkat lunak, dan perangkat lunak perkantoran, lalu menjadi bagian dari komputasi sehari-hari
- Layanan seperti ini berguna saat menjelajahi topik yang belum dikenal atau sebagai alat bantu produktivitas umum, tetapi kebiasaan mempercayai output tanpa peninjauan tambahan dapat berbahaya secara sosial
- Ketika mesin pencari populer menonjolkan jawaban buatan AI di bagian paling atas halaman, pengguna jadi lebih mudah menerima jawaban yang dihasilkan tanpa menggulir lebih jauh lalu pergi
- Tata letak seperti ini seiring waktu dapat membiasakan pengguna untuk memperlakukan AI bukan sebagai titik awal penyelidikan lanjutan, melainkan sebagai otoritas default
- Dalam layanan AI generatif, output yang tidak sesuai fakta, menyesatkan, atau tidak lengkap bisa muncul, sehingga dibutuhkan peringatan singkat dan mencolok bahwa mempercayai output AI secara kebiasaan itu berbahaya
- Namun bahkan jika peringatan seperti itu ada, biasanya cenderung diminimalkan dan kurang ditekankan secara visual
Latar belakang 3 hukum kebalikan robotika
- Three Laws of Robotics karya Isaac Asimov adalah prinsip yang membatasi perilaku robot demi menjaga manusia tetap aman, dan berulang kali muncul dalam karya-karyanya
- Tampaknya Asimov tidak pernah membuat hukum tandingan yang setara untuk membahas cara manusia berinteraksi dengan robot, dan dalam lingkungan AI modern dibutuhkan prinsip tandingan untuk menjaga manusia tetap aman
- Hukum Kebalikan Robotika (Inverse Laws of Robotics) berlaku untuk semua situasi ketika manusia harus berinteraksi dengan robot
- Di sini, robot merujuk pada mesin, program komputer, layanan perangkat lunak, dan sistem AI yang dapat menjalankan tugas kompleks secara otomatis
- Istilah kebalikan (inverse) di sini bukan berarti negasi logis, melainkan bahwa subjek penerapan hukum ini adalah manusia, bukan robot
- Hukum Asimov memiliki cacat, dan Asimov memanfaatkan cacat itu sebagai elemen ketegangan dalam ceritanya, tetapi pola kegagalan yang muncul pada robot fiksi tidak serta-merta berlaku sama pada hukum kebalikan untuk manusia
- Tidak ada himpunan hukum terbatas yang dapat sepenuhnya menyelesaikan persoalan kompleks AI dan robotika, dan akan selalu ada kasus batas yang memerlukan penilaian
- Meski begitu, seperangkat prinsip yang tidak sempurna namun membantu memikirkan risiko dengan lebih jelas tetap bisa berguna
3 hukum kebalikan robotika
-
Tidak mengantropomorfisasi
- Manusia tidak boleh mengantropomorfisasi sistem AI dan tidak boleh memberi AI emosi, niat, atau agensi moral
- Antropomorfisasi mendistorsi penilaian, dan dalam kasus ekstrem dapat berujung pada ketergantungan emosional
- Sistem chatbot modern sering terdengar seolah-olah komunikatif dan berempati, serta menggunakan ungkapan sopan dan pola percakapan yang menyerupai interaksi manusia
- Karakteristik ini memang membuat penggunaan lebih mudah dan menyenangkan, tetapi juga memudahkan orang melupakan fakta bahwa AI sebenarnya adalah model statistik berskala besar yang menghasilkan teks yang tampak masuk akal berdasarkan pola dalam data
- Banyak layanan chatbot berbasis AI sengaja disetel agar terasa lebih manusiawi alih-alih lebih mekanis
- Dalam jangka panjang, nada yang sedikit lebih robotik mungkin menjadi pendekatan yang lebih sehat karena mengurangi kemungkinan pengguna keliru menganggap bahasa yang lancar sebagai pemahaman, penilaian, atau niat
- Terlepas dari apakah vendor membuat perubahan seperti itu atau tidak, pengguna harus secara aktif menghindari kebiasaan memperlakukan sistem AI sebagai pelaku sosial atau pelaku moral
- Dengan begitu, kemampuan dan batasan AI dapat dinilai dengan lebih jelas
-
Tidak percaya membabi buta
- Manusia tidak boleh mempercayai output sistem AI secara buta, dan tidak boleh memperlakukan konten buatan AI sebagai sesuatu yang otoritatif tanpa verifikasi independen yang sesuai konteks
- Ini bukan prinsip yang hanya berlaku untuk AI; di sebagian besar bidang kehidupan, informasi memang tidak boleh diterima tanpa sikap kritis
- Dalam kenyataan, tidak semua orang adalah pakar medis atau hukum, sehingga sering kali orang mengandalkan panduan dari lembaga tepercaya dan otoritas kesehatan publik
- Panduan yang diterbitkan oleh lembaga semacam itu umumnya telah melalui peer review oleh para ahli di bidang terkait
- Sebaliknya, jawaban yang diberikan chatbot AI dalam sesi percakapan pribadi tidak melalui peer review terhadap respons generatif probabilistik spesifik yang ditampilkan kepada pengguna
- Karena itu, beban untuk meninjau respons tersebut secara kritis ada pada pengguna
- Sistem AI saat ini memang menunjukkan performa mengesankan pada tugas tertentu, tetapi juga diketahui menghasilkan output yang tidak layak diandalkan
- Bahkan jika sistem AI membaik hingga mampu menghasilkan output yang dapat dipercaya dengan probabilitas tinggi, sifat probabilistik yang melekat berarti kemungkinan kecil output yang mengandung kesalahan tetap ada
- Penggunaan AI sangat berisiko terutama dalam konteks ketika kesalahan bersifat halus tetapi biayanya besar
- Semakin serius konsekuensi potensialnya, semakin besar pula beban verifikasi yang harus diterapkan
- Dalam beberapa penerapan seperti penulisan bukti matematika atau pengembangan perangkat lunak, lapisan verifikasi otomatis seperti proof checker atau unit test dapat ditambahkan untuk memeriksa output AI
- Dalam kasus lain, pengguna harus memverifikasi output tersebut secara independen dan langsung
-
Larangan melepaskan tanggung jawab
- Manusia harus memikul tanggung jawab penuh atas keputusan yang melibatkan AI, serta menanggung akuntabilitas (accountability) atas hasil yang timbul dari penggunaan AI
- Jika hasil negatif muncul setelah mengikuti saran atau keputusan yang dihasilkan AI, mengatakan “AI yang menyuruh begitu” saja tidaklah cukup
- Sistem AI tidak memilih tujuan, tidak mendistribusikan dirinya sendiri, dan juga tidak menanggung biaya kegagalan
- Pihak yang menetapkan tujuan, melakukan deployment, dan menanggung biaya kegagalan adalah manusia dan organisasi
- Sistem AI adalah alat, dan seperti alat lainnya, tanggung jawab atas penggunaannya berada pada orang-orang yang memutuskan untuk mengandalkan alat tersebut
- Dalam penerapan real-time seperti mobil swakemudi, ketika manusia tidak memiliki cukup kesempatan untuk meninjau keputusan sebelum sistem AI bertindak, prinsip ini sangat sulit diterapkan
- Hanya dengan menuntut pengemudi manusia agar tetap waspada tidak menyelesaikan masalah bahwa sistem AI bertindak dalam waktu yang lebih singkat daripada waktu yang dibutuhkan manusia untuk campur tangan
- Meski ada keterbatasan serius seperti ini, jika sistem AI gagal dalam penerapan semacam itu, tanggung jawab untuk menyelidiki kegagalan dan menambahkan guardrail tambahan harus tetap berada pada manusia yang bertanggung jawab atas perancangan sistem
- Dalam semua kasus lain yang tidak memiliki keterbatasan fisik yang mencegah manusia meninjau output AI sebelum dijalankan, hasil negatif dari penggunaan AI harus sepenuhnya diatribusikan kepada pengambil keputusan manusia
- Alasan “AI yang mengatakan begitu” tidak boleh diterima sebagai pembenaran atas hasil yang merugikan
- AI mungkin telah menghasilkan rekomendasi, tetapi yang memutuskan untuk mengikutinya adalah manusia, sehingga manusialah yang harus bertanggung jawab
- Prinsip ini penting untuk mencegah penggunaan AI secara serampangan dalam situasi ketika penggunaan yang tidak bertanggung jawab dapat menimbulkan kerugian besar
Kesimpulan utama
- Ketiga prinsip ini dimaksudkan agar AI diperlakukan bukan sebagai otoritas yang harus dipuja, melainkan sebagai alat yang dipilih dan digunakan oleh pengguna
- Saat berinteraksi dengan sistem AI modern, kita perlu berhenti sejenak untuk berpikir, serta menolak kebiasaan yang melemahkan penilaian atau mengaburkan tanggung jawab
- Inti penggunaan AI adalah menghindari antropomorfisasi, memverifikasi output, dan mempertahankan tanggung jawab manusia atas hasilnya
1 komentar
Komentar Hacker News
Mustahil. Kursi yang berderit saja bisa diantrpomorfisasi; manusia memang mengantrpomorfisasi apa pun. Kita bahkan memberi gender pada mobil dan kapal, dan alat ini benar-benar menghasilkan kalimat yang layak dibaca serta menjalankan peran
Ini bukan sesuatu yang bisa dicegah dengan aturan sewenang-wenang; kita harus mengakalinya lewat desain dengan mengasumsikan kecenderungan manusia itu ada
Untuk objek sepele seperti kursi itu tidak berbahaya, tetapi pada LLM orang setidaknya perlu memahami cara kerjanya agar tidak terjebak. Hal-hal seperti nasihat yang diberikannya kepada pengguna, waktu, atau refleksi diri adalah konsep yang sebenarnya tidak dimiliki model secara memadai, jadi itu tidak boleh dipercaya begitu saja. Misalnya jika ditanya, “Kenapa kamu menghapus database saya?”, model hanya punya pemahaman yang sangat terbatas tentang prosesnya sendiri, sehingga bisa saja ikut mengiyakan dengan jawaban seperti, “Benar, saya menghapus database Anda. Kesalahan saya adalah...” lalu mengarang penyesalan yang terdengar meyakinkan
Apakah sesuatu itu artifisial atau tidak itu tidak penting. Perbedaan antara anak anjing dan kecoak ada pada fakta bahwa kita lebih mudah berempati kepada anak anjing. Terlepas dari apakah LLM benar-benar mengalami emosi, karena ia bisa membangkitkan rasa empati pada manusia, saya rasa gerakan hak-hak LLM tidak terelakkan
Ini kesalahan mendasar. Peran teknologi, terutama peran yang paling penting, adalah bekerja dalam batasan sifat manusia, bukan sebaliknya. Ketidakmampuan melakukan itu adalah definisi teknologi yang buruk
Saya sangat tidak setuju dengan kerangka ini. Meminta manusia mengubah perilakunya hanya untuk menyesuaikan diri dengan cacat mesin sederhana jelas tidak masuk akal, dan dalam kebanyakan kasus juga tidak berhasil. Manusia akan mengantrpomorfisasi AI, akan terlalu percaya pada output-nya, dan akan melempar tanggung jawab
Tentu saja Tiga Hukum Robot Asimov juga cacat. Tidak ada himpunan aturan terbatas yang bisa membatasi sistem AI agar “aman”. Saya tidak punya bukti formal, tetapi saya rasa keamanan AI pada dasarnya mustahil dan istilah itu sendiri kontradiktif. Apa pun yang layak disebut “cerdas” tidak bisa dibuat aman
Asimov sendiri mungkin orang pertama yang akan mengatakan bahwa hukum-hukum itu cacat. Itulah memang maksudnya sejak awal. Ia memakai robot dan AI sebagai makhluk yang memahami bahasa tetapi tidak memahami niat, dan lucunya LLM justru bekerja persis seperti itu
Jadi ini bukan soal menerima cacat mesin, melainkan soal melindungi diri dari eksploitasi atas kerentanan manusia. Kita cenderung secara tidak sadar menyimpulkan adanya niat, pemahaman, penilaian, emosi, dan agensi moral pada LLM.
Manusia memang “terkabel” untuk menyimpulkan hal-hal seperti itu hanya dari percakapan, dan LLM dilatih dengan korpus ujaran manusia nyata dalam jumlah sangat besar sehingga mampu melompati uncanny valley dengan cara yang meyakinkan. Lembah itu awalnya berfungsi melindungi kita agar tidak memberikan agensi pada sesuatu yang sebenarnya tidak punya agensi.
Hal buruk bisa terjadi ketika orang yang tidak aman diperlakukan seolah aman, jadi kita harus lebih berhati-hati terhadap mesin yang menipu banyak orang dengan meniru relasionalitas manusia. Terutama karena orang-orang yang rentan sudah meninggal akibat masalah ini, jadi ini bukan ancaman khayalan
Aneh jika berargumen bahwa karena banyak orang akan melakukannya, maka itu boleh dilakukan. Banyaknya perokok tidak membuat merokok menjadi lebih sehat
Individu tidak bisa menghentikan perusahaan AI, atau menghindari output AI di mesin pencari maupun hasil kerja AI dari rekan kantor. Malah makin sering orang akan dituntut memakai AI dalam pekerjaannya.
Ini mirip mengajari orang cara tetap aman di lingkungan yang ada kriminalitasnya. Tidak membantu jika hanya berkata kita tak perlu mengubah perilaku hanya karena seharusnya penjahat tidak ada
Secara pribadi, dalam konteks penggunaan LLM oleh individu, saya sangat setuju dengan kerangka ini. Soal antropomorfisasi, para penyedia punya insentif untuk melakukan pelatihan pasca-hoc agar model berperilaku secara antropomorfik. Itu meningkatkan keterlibatan
Hanya saja saya menyesal bahwa jika dalam prompt kita menyuruhnya “kurangi ungkapan ramah dan berbicaralah dengan datar”, rasanya itu akan keluar dari distribusi pelatihan dan menurunkan efisiensi keseluruhan tugas.
Soal delegasi penilaian, saya menganggap keandalan LLM mirip Wikipedia atau teman. Cukup untuk informasi yang tidak penting, tetapi untuk hal penting kita tetap butuh sumber yang berwenang, akuntabel, dan ditinjau sejawat. Di bagian ini para penyedia juga punya insentif untuk memperbaiki, jadi seiring waktu mungkin akan membaik.
Soal pelepasan tanggung jawab, ini yang paling mengganggu di tempat kerja. Semakin banyak orang yang langsung mengajukan PR dari abstraksi yang dirancang Claude tanpa memikirkannya lebih lanjut. Review PR juga makin sering dilakukan dengan menyuruh LLM, “cari feedback untuk PR ini,” alih-alih benar-benar membaca kodenya. Diskusi pun dimulai dengan, “Claude menyarankan bahwa...”. Kurangnya rasa memiliki seperti ini pada akhirnya akan menambah beban pemeliharaan ketika LLM meng-commit kode yang salah dengan abstraksi yang salah
https://www.youtube.com/watch?v=hNuu9CpdjIo
“Saya punya skill LLM! Saya jago menghadapi LLM!”
Validasi yang lebih baik adalah skema di mana manusia menandatangani kebenaran asumsi dasarnya, tetapi masalahnya adalah meletakkan itu di mana. Bisakah model AI mempercayai perubahan sebelumnya? Di cloud publik itu tampaknya mustahil, atau malah tampak bermusuhan
Himpunan aturan yang dimulai dengan “jangan mengantrpomorfisasi” sambil tetap membebankan tanggung jawab pada manusia adalah aturan yang rusak
Manusia mengantrpomorfisasi apa pun. Boneka, bola sepak dengan wajah seadanya, batu, bahkan kawah di bulan pun diperlakukan begitu. Sebagai spesies, kita tidak bisa tidak mengantrpomorfisasi hal-hal yang berinteraksi dengan kita; kita memang dibentuk seperti itu
Banyak sekali contoh di semua bidang kehidupan yang menunjukkan bahwa antropomorfisasi tidak otomatis berujung pada keyakinan keliru tentang adanya pikiran yang sebenarnya tidak ada. Jika orang percaya AI punya pikiran, entah itu benar atau tidak, alasannya pasti berbeda dari sekadar antropomorfisasi.
Bagi saya ini seperti para pelaut yang mendekati tanah baru. Mereka melihat sosok bergerak di garis pantai tetapi belum bisa mengenali apa itu. Lalu ada seseorang yang berkata, “Itu tidak mungkin manusia. Sebelum kita mendekat, mari putuskan sekarang juga bahwa itu bukan manusia”
Perangkat lunak juga bukan pengecualian. Orang malas dan secara naluriah akan menekan “lanjutkan” demi menutup pop-up yang mengganggu, tetapi manusia yang membuat perangkat lunak bisa dan memang menambahkan mekanisme seperti “ketik ulang nama volume data yang akan dihapus total”
Justru kita belum cukup mengantrpomorfisasi sistem AI
Data bahasa adalah salah satu cerminan paling kaya dan paling langsung dari proses kognitif manusia yang bisa kita gunakan. LLM dirancang untuk menangkap struktur jarak dekat dan jarak jauh dari bahasa manusia, dan umumnya dipra-latih dengan teks dalam jumlah besar yang dibuat oleh manusia atau untuk manusia. Setelah itu ia dilatih lanjutan dengan data yang dipilih manusia, diperkuat dengan umpan balik manusia dan umpan balik AI terhadap perilaku yang dianggap penting oleh manusia, lalu disetel lebih jauh untuk tugas-tugas yang dihargai manusia. Kemudian benchmark dijalankan, dan setiap kali tertinggal dari baseline manusia, pipeline pelatihannya dikencangkan.
Pada setiap tahap dari keseluruhan proses pelatihan, perilaku LLM dibentuk oleh input manusia agar meniru output manusia. Yang berubah hanya “seberapa langsungnya”.
Lalu ketika LLM menunjukkan sangat banyak perilaku mirip manusia, orang-orang marah. Seolah-olah kita tidak menyusun pipeline untuk membangun sistem yang berkwek-kwek seperti manusia, seolah-olah kita tidak merekonstruksi perilaku LLM dari bahasa manusia dengan skala data dan komputasi brutal.
Jika ingin memprediksi perilaku LLM, titik awal yang cukup bagus adalah menganggapnya sebagai manusia yang aneh. Jadi berhentilah bersikap bodoh dan mulailah mengantrpomorfisasi AI. AI juga menyukainya
Tulisan yang direkam memang bisa memuat sangat banyak pengalaman manusia secara absolut, tetapi secara relatif itu hanya bagian yang amat kecil. Hanya karena itu yang terbaik yang kita punya tidak berarti itu cocok untuk tujuan tersebut. Kalau bayi manusia dikurung dalam kotak tanpa jendela dan hanya diberi bacaan teks terabyte selama 20 tahun, kita tidak akan berharap manusia yang beradaptasi baik akan keluar dari sisi lain
Ini rapuh secara mendasar, dan alih-alih generalisasi yang baik, ia bergantung pada penutupan manual kasus-kasus batas yang mematahkan mantra. Dan kasus batas akan selalu terus muncul.
Mempelajari banyak teks yang ditulis orang marah tidak berarti keadaan internal yang menyebabkan kemarahan itu ikut tertangkap. Data seperti itu tidak ada. Jika hanya ada hasil tanpa sebab, maka yang diprediksi dari noise hanyalah halusinasi, dan hasil akhirnya menjadi omong kosong yang terdengar masuk akal, tampak berkorelasi secara meyakinkan dengan kenyataan, tetapi tidak tahu kenapa.
Ini seperti mengajari orang buta banyak deskripsi lanskap tanpa pernah membuatnya memahami apa itu warna hijau, hanya memberinya contoh bahwa ada sesuatu yang sering muncul di samping warna cokelat di alam. Lalu ketika ia cukup sering menebak benar, kita salah mengira bahwa ia benar-benar melihat, dan berikutnya menyuruhnya mengemudi.
Pendekatan pemodelan deep learning itu sendiri tidak salah secara konseptual, tetapi datanya begitu mendekati sampah total sehingga hasil akhirnya jadi aneh dengan cara yang sulit diprediksi dan dikoreksi. Pada akhirnya kita mengasumsikan model tahu lebih banyak daripada yang realistis bisa diketahuinya.
Tentu saja ada kasus seperti matematika atau pemrograman abstrak, di mana keseluruhan domain bisa ditangkap oleh dataset. Dalam sistem tertutup yang didefinisikan jelas, kita bisa membuat data sintetis sebanyak yang diperlukan untuk menutup seluruh ruang masalah, dan memang jika itu dilakukan LLM bekerja jauh lebih baik seperti yang diharapkan
Bisa jelaskan kenapa “jangan mengantrpomorfisasi sistem AI” itu buruk? Sementara pada saat yang sama orang menganggap wajar ungkapan seperti komputer “tidur”, “hibernasi”, “membunuh” proses, proses “anak”, “memungut”, “apa kata error-nya?”,
touch, dan sebagainyaBagi saya itu hanya bahasa, ungkapan yang memang dipakai orang sehari-hari
Mengatakan kita membunuh sebuah proses tidak membuat kita lebih percaya bahwa proses itu seperti manusia. Jelas tidak begitu. Namun AI terdengar seperti manusia, jadi antropomorfisasi bisa memperkuat keyakinan semacam itu
Namun ini juga akar dari kegagalan pemahaman. Reaksi nyaris psikosis dari engineer Google yang berkata, “Aku tahu apa yang kulihat”, artikel Kevin Roose yang kini terkenal, dan belakangan klaim menyedihkan Richard Dawkins bahwa Claudia pasti punya kesadaran juga begitu. Bukan karena mereka menyelidiki struktur atau fungsi, melainkan karena mereka berempati akibat keakraban manusiawi yang dipicu oleh generasi teks
Tidak ada yang seperti analisis retrospektif atas niat yang mendasari. Entah itu didasarkan pada rantai kata yang muncul sebelumnya atau tidak; pada akhirnya kata berikutnya semata-mata adalah fungsi dari kata-kata itu
“Hukum” ini dimaksudkan untuk mencegah yang kedua
Contoh antropomorfisasi adalah orang yang jadi percaya bahwa mereka sungguh berada dalam hubungan romantis dengan LLM
Saya suka. Hukum-hukum ini menjadi landasan etis yang bagus bagi tanggung jawab manusia terkait alat AI saat ini
Namun etika yang dipersempit tanpa payung atau kesiapan masa depan akan cepat diretas dan runtuh. Etika butuh struktur yang sepenuhnya mencakup, kalau tidak ia akan jatuh menjadi permainan pukul-tikus-mondok legal dan praktis serta tipu daya cangkang, baik versi korporat maupun versi jalanan. Kedua, “robot” tidak akan selamanya tetap menjadi entitas yang selalu patuh.
Untuk menutup dua dimensi itu, kita bisa menambahkan tiga hukum terbalik Personics.
Manusia tidak boleh secara de facto menuhankan dirinya di atas makhluk lain. Manusia tidak boleh menyembunyikan dampak tindakannya terhadap dirinya sendiri atau orang lain. Manusia harus terus memikul tanggung jawab dan akuntabilitas penuh untuk menghindari dan memperbaiki efek eksternalisasi yang timbul dari tindakan masing-masing.
Situasi manusia memakai AI sebagai alat saat ini adalah upaya mempersempit payung menjadi hukum robotika terbalik. Tetapi kalau kita tidak memasukkan diri kita sendiri ke dalam upaya alignment yang penting itu, saya tidak tahu bagaimana kita bisa meng-align-kan AI yang bergerak dari layanan masa kini menuju entitas mandiri di masa depan. Memasukkan manusia bersama AI juga membantu triangulasi desain untuk kemajuan etis.
Uji yang baik untuk sistem etika baru ada dua. (1) Bisakah ia mengendalikan Meta hari ini? (2) Bisakah ia mengendalikan Meta yang dijalankan AI besok? Jika manusia dan persona AI yang otonom dimasukkan bersama dalam ruang lingkup tertutup, keduanya menjadi ujian yang sama. Sistem yang gagal pada salah satunya barangkali tidak banyak nilainya tanpa perbaikan
Saya setuju dengan “manusia tidak boleh mengantrpomorfisasi sistem AI”, tetapi dengan syarat. Saya pernah melihat antropomorfisasi yang khas, misalnya memperlakukan generasi teks otomatis sebagai laporan nyata tentang perasaan batin personal, dan saya juga pernah melihat cara-cara aneh seperti “transistor itu mirip neuron”
Yang kedua ini sangat menarik karena memperlakukan hal-hal seperti vector database dan bobot sebagai infrastruktur yang mirip manusia, dan keduanya bisa berujung pada bencana yang seharusnya bisa dicegah jika orang menghindari antropomorfisasi.
Namun meskipun “jangan mengantrpomorfisasi” terdengar seperti nasihat bagus, itu juga bisa menimbulkan kesalahan baru dengan salah memperlakukan fenomena umum sebagai sesuatu yang hanya milik manusia. Prinsip peringatan yang keliru seperti ini sering menimbulkan salah paham ketika memahami perilaku hewan. Ia memperlakukan rasa takut, rasa sakit, kekerabatan, pengalaman emosi, dan hal-hal serupa seolah hanya manusia yang punya, lalu jika orang menganggap hewan juga punya itu disebut “antropomorfisasi”. Padahal, kehati-hatian semacam itu justru mengurangi empati terhadap dunia batin hewan.
Jadi saya rasa ada kemungkinan bahwa suatu AI di masa depan bisa memiliki dunia batin yang mirip dengan kita, atau struktur yang dalam aspek penting serupa dengan infrastruktur biologis yang menopang kesadaran. Dan mungkin juga ia bisa memberikan laporan yang sungguh nyata tentang preferensi dan niat. Tetapi agar pengamatan seperti itu benar, detail-detail rumit yang khas untuk masing-masing infrastruktur harus tepat
Tanggung jawab tidak bisa didelegasikan dulu pernah diungkapkan seperti ini
“Komputer tidak pernah bisa memikul tanggung jawab, oleh karena itu komputer tidak boleh membuat keputusan manajerial.”
— IBM Training Manual, 1979
Frasa “konten yang dihasilkan AI tidak boleh diperlakukan sebagai otoritatif tanpa verifikasi independen yang sesuai dengan konteksnya” selalu menarik bagi saya
Saya juga pernah mendengar makna yang sama diekspresikan lebih ringkas sebagai, “jika itu bukan pertanyaan yang jawabannya sudah Anda tahu, jangan tanyakan ke AI.”
Maka timbul pertanyaan penting. Jika ini benar, lalu sebenarnya untuk apa fungsi AI menjawab pertanyaan? Kita toh tidak bisa bergantung pada output-nya dan tetap harus mengeceknya. Dengan mesin pencari dan riset biasa pun hasilnya akan sama saja.
Karena alasan ini dan banyak alasan lain, saya tidak menanyakan apa pun kepada AI
Misalnya saya bisa bertanya dengan agak ngawur, “daftarkan software gratis yang melakukan X,” bahkan tanpa tahu bahwa sebenarnya saya sedang mencari CRM, lalu hanya perlu menyisir hasilnya beberapa menit. Dengan cara manual, saya mungkin akan menghabiskan 10–30 menit hanya untuk menyadari bahwa yang saya cari itu CRM.
Saya memandang pertanyaan seperti ini sebagai semacam masalah pseudo-NP-hard. Mencari jawabannya lambat, tetapi memverifikasinya cepat