Yang sudah kami pakai sejak dulu memang dipelajari oleh LLM..

 

Analogi yang sempurna!!

 
argo9 2025-07-21 | induk | di: Menyambut Generasi Programmer Berikutnya (lucumr.pocoo.org)

Agar mudah dilihat sekilas, saya membuatnya dalam bentuk mandal-art di https://a1bbs.com/view/2w5cpznk6xrh166p3tnqpq.

 
xguru 2025-07-21 | induk | di: Saya meninggalkan Element dan Matrix.org (マリウス.com)

Beberapa tahun lalu, di GeekNews juga sempat muncul cukup banyak berita terkait Matrix, lalu sempat sunyi, ternyata ada masalah seperti ini.

 

Kadang saya merasa konsep besar path dependency sedang dipaku kuat oleh ketergantungan pada LLM. Perasaan bahwa kita bergeser dari "karena sudah dipakai sejak dulu" menjadi "karena disukai LLM"—pada akhirnya akan seperti apa, ya...

 

"Sekarang Anda boleh mematikan daya komputer."

 

Perkiraan gaji tahunan pribadi: 10 miliar ~ 130 miliar won... wow... jadi rasanya belum pernah ada pengembang seperti ini sepanjang sejarah karier ya, haha.
Apakah ini gaji pokok murni tanpa opsi saham ya, haha.

 

Terjemahan bahasa Korea (termasuk tautan)
Halo semuanya. Saya salah satu maintainer proyek ini. Terima kasih telah memperkenalkan proyek kami di sini!
Saat ini Anda dapat menggunakannya secara gratis untuk waktu terbatas di forgecode.dev, jadi silakan coba. Jika Anda memiliki masukan atau saran, tinggalkan di Discord. Umpan balik Anda sangat membantu.

(Bahasa Korea di atas diterjemahkan dengan ChatGPT. Mohon maklum jika ada nuansa makna yang tersampaikan sedikit berbeda.)

 

Anehnya, di AI China justru terlihat kuat ya

 

Bagaimana jika kita membuka forum untuk membahas hakikat rapat? Di forum itu, kita bisa meninjau persoalan etis, sekaligus pendekatan praktisnya (apakah ini akan dipandang sebagai krisis atau dimanfaatkan sebagai peluang, dan bagaimana memanfaatkannya), saya juga penasaran bagaimana dari sisi keamanan informasi, dan bagi para desainer, jika saat menunjukkan referensi integrasi real-time dimungkinkan sehingga cukup mengucapkan kata-kata saja lalu ide itu divisualisasikan dan dibagikan seketika kepada para peserta rapat, bukankah itu bisa menjadi bentuk final DX/AX di industri desain... Secara pribadi ini tampak seperti fenomena yang positif, tetapi dari sisi keamanan, bagaimana cara mengantisipasinya tampaknya akan menjadi isu yang sangat penting.

 

Cek siapa saja yang bikin rata-rata gaji developer naik

 

Cukup mengejutkan kalau 50%-nya berlatar Tiongkok. Kita juga masih harus menempuh jalan panjang di AI, dan rasanya kita bahkan tertinggal dari segi talenta.

 

Melihat ringkasan komentarnya, sepertinya orang-orang berpikir 2% saat ini bukan angka yang besar, tetapi jika kenaikannya terus pada laju seperti ini, kita perlu memikirkan akan menjadi berapa pada 2026. Jika AGI tidak benar-benar mungkin terwujud dalam waktu yang sangat dekat, maka sampai 2026, atau mungkin bahkan 2027, sepertinya keadaan akan benar-benar kacau karena pertentangan antara kubu optimis dan pesimis.

 

Penjelasan draf pertama EU AI Act oleh Latham & Watkins yang disebutkan dalam komentar Hacker News di bawah ini

European Commission Releases First Draft of General-Purpose AI Code of Practice

  • EU AI Act mulai berlaku pada 1 Agustus 2024, dan kewajiban terkait akan diterapkan secara bertahap
  • AI Office di bawah Komisi memimpin penyusunan code of practice, dengan target penyelesaian pada Mei 2025 dan mulai berlaku pada 2 Agustus
  • Pada 14 November 2024, EC pertama kali merilis draf code of practice untuk AI serbaguna
  • Draf tersebut menyajikan tujuan, tindakan, dan indikator kinerja utama (KPI) yang jelas, selaras dengan prinsip dan nilai UE

Poin utama dalam draf EU AI Act

Transparansi

  • Transparansi adalah prinsip inti dalam code of practice
  • Penyedia model GPAI harus mendokumentasikan dan memelihara informasi berikut
    • informasi tentang model itu sendiri
    • jenis dan penggunaan sistem AI yang dapat diintegrasikan
    • kebijakan penggunaan yang diizinkan
    • elemen inti dari lisensi model
    • spesifikasi desain dan proses pelatihan
    • metode pengujian dan validasi
  • Informasi di atas harus diberikan bila diminta oleh AI Office dan otoritas nasional, atau oleh penyedia sistem AI
  • Jika memungkinkan, pengungkapan informasi kepada publik juga dianjurkan

Kepatuhan hak cipta

  • Kepatuhan terhadap hak cipta UE dan hak terkait ditekankan
  • Penyedia model GPAI harus menetapkan kebijakan hak cipta internal yang komprehensif sepanjang seluruh siklus hidup
  • Sebelum membuat kontrak dataset dengan pihak ketiga, diperlukan due diligence hak cipta serta verifikasi kepatuhan pemegang hak menurut Article 4(3)
  • Penyedia GPAI selain SME perlu mengambil langkah pencegahan yang wajar agar model tidak menghasilkan output yang melanggar hak cipta
  • Saat menyediakan model, disarankan agar syarat kontrak mewajibkan pihak lawan menjanjikan langkah pencegahan terhadap pelanggaran hak cipta berulang

Text and Data Mining (TDM)

  • Saat melakukan TDM, ada kewajiban untuk memastikan hak akses yang sah atas konten yang dilindungi hak cipta
  • Hanya gunakan crawler yang mematuhi Robot Exclusion Protocol
  • Perlu berhati-hati agar pengecualian crawler tidak berdampak negatif pada ketercarian konten di mesin pencari
  • Secara aktif merespons penandaan pemegang hak yang dapat dibaca mesin
  • Bekerja sama dalam pengembangan standar bagi pemegang hak
  • Diperlukan langkah yang wajar untuk mencegah crawling dari sumber pembajakan ilegal

Transparansi kepatuhan hak cipta

  • Ada kewajiban untuk mengungkapkan langkah terkait hak cipta dan kepatuhan terhadap pemegang hak
  • Perlu menyediakan satu titik kontak agar pemegang hak dapat mengajukan keberatan
  • Sumber data pelatihan, pengujian, dan validasi serta informasi hak akses harus diberikan kepada AI Office

Klasifikasi risiko sistemik

  • Penyedia GPAI harus terus mengevaluasi dan menangani risiko berdasarkan kerangka klasifikasi risiko sistemik
  • Item risiko utama:
    • kejahatan siber
    • risiko kimia, biologis, radiologis, dan nuklir
    • hilangnya kendali atas model
    • otomatisasi untuk tujuan riset dan pengembangan AI
    • persuasi dan manipulasi skala besar
    • diskriminasi skala besar

Kerangka manajemen risiko sistemik

  • Penyedia model GPAI yang teridentifikasi memiliki risiko sistemik harus membangun kerangka keselamatan dan keamanan
  • Diperlukan dokumentasi dan struktur tata kelola (termasuk evaluasi oleh pakar independen) untuk memperkuat transparansi dan akuntabilitas
  • Langkah seperti pelaporan insiden, perlindungan whistleblower, dan transparansi publik juga disebutkan
 

Membagikan tulisan yang dia terjemahkan sendiri seolah-olah itu hasil terjemahan orang lain agak memalukan ya.

 

Smartphone modular... aduh LG bikin pusing...

 

Alasan utama saya jadi enggan dengan Firefox mungkin karena dukungan fiturnya lambat.
Saat mengembangkan web, saya sering melihat MDN.
Bagian pertama yang saya lihat adalah kompatibilitas browser.
Dalam beberapa tahun terakhir, yang sering saya temui adalah Firefox yang mendukung API standar secara keseluruhan, tetapi tidak mendukung satu atau dua item detail, jadi akhirnya saya mengetes di Chrome.
Memang bagus kalau mereka hanya ingin mendukung standar yang stabil dan sudah pasti.
Tapi karena hal-hal yang didukung hampir semua browser kecuali Firefox jadi sering terlihat, lama-lama saya jadi cenderung menghindarinya.
Secara pribadi saya sengaja tetap memakai Firefox karena dulu ia menjadi titik awal yang membantu menyingkirkan masa kegelapan akibat Internet Explorer. Namun saat mengerjakan proyek, rasanya serba tanggung untuk dipakai.

 

Bukan karena takut pada kotoran lalu menghindarinya.
Ada putusan yang tidak mengakui hak cipta atas desain huruf, tetapi

https://www.law.go.kr/%ED%8C%90%EB%A1%80/(94%EB%88%845632)

sepertinya saya perlu mencari apakah ada putusan yang mengakui hak cipta atas desain huruf.