- Pemerintah Amerika Serikat mengumumkan ‘Rencana Aksi Nasional AI (AAIAP)’ untuk pengembangan dan pemanfaatan kecerdasan buatan (AI) yang aman dan bertanggung jawab
- Mengajukan 5 tujuan strategis utama, termasuk perluasan investasi riset dan pengembangan AI, memastikan keandalan dan akuntabilitas, pengembangan talenta, penguatan akses infrastruktur dan data, serta kerja sama global
- Berfokus pada penyusunan landasan hukum dan kebijakan untuk meminimalkan risiko sambil memastikan AI memberikan manfaat sosial dan ekonomi
- Menekankan langkah-langkah untuk kepentingan keamanan nasional dan publik, termasuk pencegahan penyalahgunaan AI untuk tujuan militer maupun nonmiliter, perlindungan etika, dan hak asasi manusia
- Mendorong inovasi AI dan pembentukan norma secara bersamaan melalui kolaborasi sektor publik dan swasta
Gambaran umum Rencana Aksi Nasional AI
- Pemerintahan AS menilai bahwa strategi komprehensif di tingkat nasional diperlukan dengan mempertimbangkan besarnya pengaruh teknologi AI terhadap seluruh masyarakat
- Menyajikan arah kebijakan untuk mencapai dua sumbu sekaligus: mendorong inovasi dan mengendalikan risiko
1. Memperluas investasi R&D AI dan memperkuat infrastruktur
- Amerika Serikat meningkatkan investasi R&D di tingkat pemerintah federal untuk memajukan AI dan memperkuat daya saing global
- Mendorong perluasan infrastruktur publik yang dibutuhkan untuk riset AI, seperti supercomputing, dataset berkualitas tinggi, dan alat open source
- Memberikan peluang akses terhadap sumber daya data dan komputasi agar dapat dimanfaatkan peneliti, startup, dan kelompok minoritas
- Mendukung secara prioritas riset penerapan AI pada industri tertentu di tingkat nasional, seperti kesehatan, iklim, pertanian, dan energi
- Memperluas investasi R&D lintas disiplin dalam sains dasar, keandalan, keamanan, dan AI yang etis
2. Membangun ekosistem AI yang andal dan akuntabel
- Menyusun standar transparansi, keamanan, dan explainability AI yang dipimpin pemerintah lalu menyebarkannya ke sektor swasta
- Menjamin secara hukum dan kelembagaan keadilan AI (nondiskriminasi, pengurangan ketimpangan), perlindungan privasi, dan kepatuhan etika
- Memperkuat sistem pengujian dan verifikasi sebelum penggunaan nyata, termasuk evaluasi risiko algoritme dan analisis dampak
- Menerapkan regulasi dan pemeriksaan tambahan pada penggunaan AI berisiko tinggi, misalnya di bidang kesehatan, keuangan, dan keselamatan publik
- Menyiapkan prosedur cepat untuk penetapan tanggung jawab dan pemulihan saat terjadi malfungsi atau penyalahgunaan AI
3. Pengembangan talenta dan tenaga kerja AI
- Memperkuat secara menyeluruh pendidikan literasi AI dari sekolah dasar hingga perguruan tinggi dan pendidikan orang dewasa
- Memperluas dukungan agar siswa dari kelompok terpinggirkan dan wilayah rentan juga dapat mengikuti pendidikan AI
- Memperluas program pengembangan doktor dan pakar di bidang AI serta pelatihan ulang bagi praktisi yang sudah bekerja (upskilling)
- Memperkuat kapasitas AI di pemerintah dan lembaga publik, serta mendukung pertukaran dan kerja sama dengan talenta dari sektor swasta dan industri
- Mencakup upaya menarik talenta AI, kebijakan imigrasi, dan aktivasi perekrutan talenta luar negeri
4. Memperluas akses terhadap data dan infrastruktur
- Membangun kebijakan untuk memperoleh, membagikan, dan memanfaatkan data yang berkualitas tinggi, adil, dan aman
- Membuka data publik serta menghubungkannya dengan data swasta dan memastikan interoperabilitas
- Memperjelas standar privasi data, keamanan, dan etika
- Mendukung pemanfaatan bersama infrastruktur seperti supercomputing dan cloud bagi peneliti dan pengembang AI, perusahaan, sekolah, dan organisasi nirlaba
- Memperkuat standardisasi data, pengelolaan kualitas, dan sistem tata kelola data
5. Tata kelola AI global dan kerja sama internasional
- Memimpin penyusunan standar dan norma global terkait etika, keamanan, dan keandalan AI
- Memperkuat kerja sama kebijakan, teknologi, dan riset dengan G7, OECD, PBB, sekutu, dan pihak lain
- Membangun solidaritas internasional untuk mencegah persenjataan AI, pengawasan, dan penyalahgunaan otoriter
- Mendorong standardisasi AI global, interoperabilitas, dan jaminan portabilitas data
- Memperluas pengembangan kapasitas AI dan dukungan internasional bagi negara berkembang dan negara rentan
Sistem pelaksanaan dan evaluasi
- Dipimpin secara keseluruhan oleh White House Office of Science and Technology Policy (OSTP)
- Setiap kementerian/lembaga (pertahanan, perdagangan, pendidikan, energi, kesehatan, dan lainnya) menyusun dan menjalankan rencana implementasi yang spesifik
- Menjamin partisipasi para pemangku kepentingan melalui forum publik-swasta, kelompok ahli, dan penyerapan pendapat warga
- Menyusun roadmap rinci per sasaran, indikator kinerja, serta sistem evaluasi dan pelaporan berkala atas pelaksanaan
- Memperkuat transparansi, inklusivitas, dan akuntabilitas dalam proses pelaksanaan kebijakan
Kesimpulan dan tugas ke depan
- Mengejar secara bersamaan dua tujuan: mendorong inovasi AI dan meminimalkan risiko
- Menekankan bahwa seiring perkembangan teknologi, penetapan standar etis, hukum, dan sosial adalah hal yang esensial
- Kepemimpinan global, kerja sama internasional, pengembangan talenta, serta penguatan regulasi dan tata kelola disebut sebagai tugas inti jangka menengah dan panjang
- Penyusunan regulasi yang substantif, evaluasi berkelanjutan, dan partisipasi aktif dari seluruh lapisan masyarakat diajukan sebagai syarat bagi kebijakan yang berhasil
1 komentar
Opini Hacker News
Jelas bahwa AI adalah bidang yang sangat penting bagi pertumbuhan ekonomi, tetapi saya juga ingin menekankan bahwa energi bersih sama pentingnya. Saat ini kedua bidang tersebut sama-sama berada di titik balik penting. Namun, AS ingin melaju di AI, sementara di sektor energi bersikap seolah tidak ada apa-apa dan enggan menghadapi kenyataan. Sikap seperti ini berisiko membuat AS kehilangan kepemimpinan ekonomi di bidang energi kepada negara lain dalam 20 tahun ke depan. Lebih parah lagi, posisi pemerintah saat ini mendorong perusahaan energi AS untuk tetap berpegang pada cara lama, dan pada akhirnya bisa bangkrut dalam 10~20 tahun. Saat itu, AS bisa saja menghadapi situasi di mana secara strategis harus menyelamatkan mereka
Senang melihat ada dorongan untuk AI open source dan open-weight. Terutama mengesankan karena mereka dengan jelas menyatakan bahwa open-weight dan open source bukanlah hal yang sama
Tanpa dukungan nyata, yaitu dana dan semacamnya, sulit melihat dorongan pemerintah saja sebagai sesuatu yang benar-benar bermakna. Jika melihat bagian terkait dalam dokumen itu sendiri (lihat file PDF), terlihat bahwa isinya hampir tidak ada
Saya penasaran bagaimana tujuan utama untuk memastikan keunggulan AS bisa selaras dengan kebijakan open-weight. Kalau bobot model dibuka, siapa pun bisa menggunakan teknologinya
Saya penasaran bagaimana perhatian pemerintah pada model yang “adil” beririsan dengan kebijakan open source. Terutama karena gagasan “keadilan” versi pemerintah justru terasa menakutkan
Kebijakan yang nyaris tidak berarti
Semua kebijakan ini pada akhirnya berakar pada hasrat untuk mengendalikan. Tidak ada ketertarikan nyata pada saling menguntungkan, akurasi, atau presisi; tujuannya adalah agar mereka yang berkuasa dapat mengendalikan bobot terbuka dan source model untuk mencegah pemikiran, pertanyaan, atau gagasan bebas yang tidak disetujui
Bagi saya pribadi, poin terpenting adalah mereka mengambil posisi yang kuat terhadap model AI open source dan open-weight. Sikap seperti ini bertabrakan dengan sebagian regulasi lain seperti EU AI Act. EU AI Act juga tidak melarang model open-weight, tetapi meski ada pengecualian untuk proyek di bawah FLOPS 10²⁵, lingkungan regulasinya tetap cukup membebani proyek terbuka yang terdesentralisasi
Jika melihat bagian “rekomendasi kebijakan”, terlihat bahwa sebagian besar hanyalah kata-kata tanpa isi nyata
Rasanya fokusnya lebih ke energi nonterbarukan dan ideologi yang dipaksakan pemerintah ketimbang open source dan energi terbarukan. Saya tidak tahu apakah tafsir seperti ini sekadar optimisme polos atau penolakan terhadap kenyataan
Di bagian energi, rasanya seperti lelucon bahwa mereka menyebut tenaga fusi untuk memasok daya AI, tetapi tidak menyebut tenaga surya
Secara teknis, listrik tenaga surya juga bisa dianggap sebagai energi fusi dalam arti luas, karena energi fusi dari luar angkasa dikirim dalam bentuk foton
Saya penasaran berapa banyak lahan yang dibutuhkan untuk menjalankan seluruh infrastruktur AI hanya dengan tenaga surya. Saya ingin bilang bahwa tenaga surya tidak praktis, tetapi saya juga sungguh penasaran
Sepertinya tidak ada cara untuk mencegah perusahaan AI memakai energi hanya dari sumber terbarukan
Kampung halaman saya memasang fasilitas surya besar-besaran di lahan pertanian. Tenaga surya bagus untuk atap rumah, tetapi sulit dipakai untuk menjalankan pusat data 24 jam tanpa baterai
Permintaan listrik AI memang tidak cocok dengan kurva pembangkitan tenaga surya
Sebagai kebijakan lanjutan yang patut diperhatikan setelah AI Action Page AS, ada PREVENTING WOKE AI IN THE FEDERAL GOVERNMENT. Dalam dokumen ini, DEI didefinisikan sebagai pengenalan konsep seperti distorsi fakta terkait ras dan gender, keberagaman hasil, teori ras kritis, transgender, bias bawah sadar, interseksionalitas, rasisme sistemik, diskriminasi, dan sebagainya. Dokumen itu mengklaim bahwa DEI mengorbankan komitmen pada kebenaran dan menjadi ancaman bagi AI yang dapat dipercaya
Pada praktiknya, hampir semua tujuan dalam Action Plan tampaknya berfokus pada mendorong penggunaan AI, tetapi hanya tujuan terakhir yang berbunyi “melawan media sintetis dalam sistem hukum”. Sebagian besar AI seperti LLM justru memiliki fungsi utama menghasilkan media sintetis, jadi saya penasaran bagaimana hal itu bisa selaras dengan tujuan tersebut
Saya bingung apakah kalimat pertama itu sindiran atau serius. Seluruh dokumen terasa seperti permintaan dari kelompok lobi industri. Contoh penggunaan LLM dalam sistem hukum mirip dengan pengacara senior yang menyuruh junior membuat draf awal. Masalah muncul ketika draf itu tidak ditinjau dan langsung diajukan ke pengadilan. Itu terjadi karena penerapan logika hukum yang buruk, kutipan preseden palsu, dan dukungan argumen yang keliru
Rasanya seluruh dokumen akan lebih mudah dipahami jika dibaca dengan suara Patrick Bateman
Ada yang menafsirkan bahwa yang paling penting adalah menjadi yang pertama mencapai AGI. Siapa yang mengendalikan AGI pada dasarnya akan punya kekuatan untuk menguasai dunia
Bagian ini berkaitan dengan watermarking, yaitu sistem identifikasi dan autentikasi media sintetis AI. Misalnya, diperlukan standar tersendiri untuk mencegah keadilan hukum dirusak oleh deepfake yang berniat jahat. Karena itu diusulkan kebijakan seperti penyediaan alat penanganan deepfake untuk pengadilan dan lembaga peradilan, pengembangan pedoman benchmark forensik, serta revisi Federal Rules of Evidence
Tertulis bahwa “agar pemerintah federal memperbarui kontrak dengan pengembang LLM, hanya sistem yang menghasilkan keluaran yang dianggap ‘objektif dan bebas bias’ oleh pemerintah ini yang akan diakui”. Artinya, output AI harus sesuai dengan standar kebenaran versi pemerintahan ini
Ketika saya pernah menyampaikan kekhawatiran seperti ini sebelumnya, saya mendapat penilaian negatif. Mungkin karena itu berbeda dengan suasana yang pro-LLM.
Dalam dokumen terkait dijelaskan contoh bagaimana konsep DEI berfungsi sebagai pembatas dalam AI, serta argumen bahwa obsesi terhadap “kebenaran” justru mengancam keberadaan AI yang dapat dipercaya
Ungkapan “tidak ada bias ideologis dari atas ke bawah” pada dasarnya sama saja dengan makna asli “political correctness”
Kalau harus menyesuaikan diri dengan “kebenaran ala Amerika” seperti ini, saya malah ingin meninggalkan industri TI. Setidaknya saya bersyukur EU AI Act menunda keterpaparan pada hal seperti ini
“Objektif” dan “tanpa bias top-down” terdengar seperti menetapkan bahwa 2+2=5 lalu memaksa orang percaya bahwa kita selalu berperang dengan Asia Timur
Saya ingin menunjukkan bahwa sebagian besar butir yang disebut dalam Action Plan seperti “pelonggaran regulasi administratif, adopsi AI yang bebas, dorongan open source, perlindungan nilai-nilai Amerika, pengamanan dataset ilmiah AI, percepatan adopsi AI di pemerintahan” justru bertentangan dengan kebijakan nyata. Langkah pemerintah belakangan ini berseberangan langsung dengan tujuan yang tertulis di sini. Secara pribadi, semua ini terasa bergerak ke arah yang berbahaya sehingga sulit saya anggap serius saat ini
Tampaknya rumus suksesnya adalah tidak membuat regulasi, tetapi tetap mendorong tujuan politik
Seluruh dokumen lebih mirip propaganda tentang “mewujudkan keuntungan besar Amerika lewat AI”
Ada istilah “pelonggaran regulasi administratif”, tetapi pada kenyataannya tidak ada regulasi sama sekali untuk menyewa GPU dan melatih model
Pada akhirnya, ini menunjukkan bahwa deklarasi yang hanya berupa kata-kata tidak berarti. Hampir tidak ada orang yang benar-benar serius dengan janji tanpa tindakan
Sebagian besar isinya terasa mirip “propaganda slogan” ala Partai Komunis Tiongkok. Hanya saja di AS, pemerintah tidak punya kapasitas seperti negara otoriter untuk mengerahkan semua sektor secara serempak, jadi penciptaan suasana kosong seperti ini mungkin tidak akan berjalan baik
Sejak pandemi, “rencana” rasanya tidak punya banyak arti. Ini karena ketidakmampuan negara. Dugaan saya, Action Plan seperti ini pada akhirnya tidak akan menghasilkan apa pun selain pidato dan pengeluaran anggaran
Kalau seperti ini, kontrak bernilai jutaan dolar hanya akan habis tanpa hasil nyata. Ideologi konservatif adalah logika yang membuat hanya kelas tertentu menikmati privilese sementara biaya layanan kesehatan bagi rakyat biasa dianggap kemewahan lalu dipangkas
Mencoba menyelesaikan masalah dunia nyata hanya dengan kebijakan di atas kertas adalah masalah kronis yang sudah lama dialami AS, Inggris, dan EU
Di Kanada, cukup mengumumkan program pemerintah lewat penyiaran publik untuk mendapatkan dukungan masyarakat, meski tanpa pelaksanaan nyata atau dukungan anggaran. Rasanya seperti Pravda
Tertulis bahwa “industri layanan kesehatan AS lambat mengadopsi AI karena ketidakpercayaan pada teknologi, regulasi yang kompleks, dan ketiadaan tata kelola yang jelas serta standar manajemen risiko, sehingga diperlukan upaya federal yang konsisten”, tetapi saya ragu pendekatan “coba dulu, perbaiki nanti” cocok untuk bidang kesehatan. Dunia medis sudah memiliki standar yang jelas dan ketat, dan tidak cocok dengan penerapan sistem yang bersifat eksperimental
Saya mengalami sendiri bahwa sistem kesehatan AS sudah nyaris runtuh. Saya sangat merasakan perbedaan antara layanan dokter pedesaan saat saya kecil dan sistem gawat darurat “ala fast food” sekarang. Pengalaman perawatan saya belakangan hanya dipenuhi ketidakpedulian dan ketidakmampuan tenaga medis. Setiap kali setelah berobat saya tidak membaik, hanya menerima tagihan besar. Kedokteran gigi juga memburuk drastis setelah dikuasai private equity. Ke depan, saya mungkin tidak akan lagi mencari fasilitas medis kecuali jika risikonya kematian
Pengobatan dengan AI memang perlu validasi yang ketat, tetapi jika AI diterapkan pada penagihan/administrasi, dampak penghematan biayanya akan besar. Sebagian besar biaya kesehatan di AS adalah biaya administrasi
Layanan kesehatan AS memang sudah sangat rapuh, dan ribuan orang meninggal akibat antrean perawatan, salah diagnosis, dan inefisiensi. Dalam diagnosis, AI sudah lebih unggul daripada dokter dalam sebagian besar kasus
Strategi “move fast and break things” mungkin juga bisa membawa perubahan positif di bidang kesehatan jika risikonya diukur dengan tepat. Jika risiko terapi eksperimental tidak lebih besar daripada risiko kematian akibat tertundanya pengobatan penyakit sehari-hari, inovasi cepat bisa menguntungkan dalam jangka panjang. Bahkan ada hasil studi bahwa AI mengungguli dokter di unit gawat darurat
Sistem kesehatan AS sudah mencapai batasnya, jadi rasanya tidak mungkin menjadi lebih buruk dari ini, dan bahkan jika makin rusak pun hasilnya mungkin justru akan dianggap sebagai perbaikan