Ah, ya wkwk, saya juga bukan bermaksud membantah ucapan jhk0530.
Saya juga berpikir meskipun situs itu meminta informasi pribadi, sepertinya tidak masalah kalau Anda mengunggahnya sambil menyatakan bahwa itu memang diri Anda,
justru karena Anda mengunggahnya tanpa menjelaskan itu, rasanya malah jadi lebih mengganjal.

 

Ah, maksud saya bukan isi tautannya (termasuk pengumpulan data pribadi), melainkan bagian saat tautan itu dibagikan. Terima kasih atas penjelasannya.

 

Saya bukannya belum pernah melihat orang mengunggah tulisan eksternal sambil berpura-pura itu bukan dirinya,
namun dalam kasus ini tampaknya bermasalah karena Anda mengumpulkan informasi pribadi sambil berpura-pura bukan diri Anda sendiri.

 

Sepertinya 505studio pada tautan latpeed = mobeah (https://x.com/mobeahmi). Rasanya tidak akan jadi masalah besar juga kalau dia cukup mengunggahnya dengan mengatakan bahwa dia sendiri yang menerjemahkannya.

 

Kalau tidak ada React atau Vue,
meskipun mengimplementasikan fungsi yang sama, bukankah kodenya jadi harus dibuat lebih rumit?
Terutama saat menangani pop-up, bahkan hanya meneruskan satu props saja kalau memakai JavaScript murni, kodenya jadi jauh lebih kompleks.
Kalau untuk hal sesederhana ini saja kodenya sudah jadi rumit, benar-benar
fitur yang kompleks jadi makin sulit diimplementasikan.

 

https://godotengine.org/article/godot-showcase-dogwalk/
Wawancara di blog Godot, dan

https://studio.blender.org/blog/our-workflow-with-blender-and-godot/
juga sangat saya rekomendasikan tulisan tentang bagaimana tim pengembang Blender membangun workflow dengan Godot dan bagaimana mereka mengelola aset.

 

https://drive.google.com/file/d/…

Lihat saja di sini tanpa memasukkan nomor.

 

Apakah penulis artikel ini adalah Bapak Ahn Kwang-seop, CEO perusahaan ThreeBlocks.ai?

 

Apa alasan mengumpulkan nomor ponsel?

 

Ingin melihatnya, tapi saya jadi ragu karena harus memasukkan nomor untuk bisa mendapatkannya.

 

Amerika Serikat mungkin bisa mencoba hal seperti ini karena wilayahnya luas. Menarik juga.

 
yangeok 2025-07-16 | induk | di: Dukungan CUDA Sedang Ditambahkan ke Apple MLX (github.com/ml-explore)

Kabar bagus nih hehe, semoga dukungan CUDA segera hadir supaya pelatihan berkecepatan tinggi juga bisa dilakukan di Mac~!

 

Pada akhirnya, alat ini tampaknya menyadari dengan tepat sejak awal masalah tentang bagaimana menggabungkan branch yang bercabang, lalu menyelesaikan pengembangannya.

 

Sama mendasarnya dengan ada atau tidaknya prototype juga ...
Cara mereferensikan fungsi orde tinggi yang dihasilkan juga ...

 

Itu memang kompleksitas yang tak terhindarkan. Bukan lagi HTML templat sederhana seperti dulu

 

Kalau runtime CPU yang dipakai cuma untuk inferensi sederhana, kondisinya masih agak mendingan. Tapi karena layanan LLM yang dituntut belakangan ini, trafik naik ya naik, kapasitas juga ikut membengkak, jadi tiap hitung biaya rasanya pengin ngamuk wkwk

 

Banyak hal yang terasa relevan di sini.
Komentar-komentarnya juga bagus; ketika seseorang merangkum dan menyampaikannya seperti ini, lalu menyediakan wadah untuk itu, rasanya pembahasan tersebut menjadi lebih lengkap melalui sanggahan, dukungan, dan tambahan.

Tambahan: belakangan ini saya sering melihat ungkapan "teknologi yang membosankan", dan dalam bahasa Inggris ternyata boring technology.

 

> Sebaliknya, jika pekerjaannya sekadar ‘yang penting bisa jalan’, memanfaatkan AI bisa jadi efisien.

Bukan hanya developer tentu saja, tapi karena ada banyak orang dengan kecenderungan yang berbeda-beda, saya merasa bahwa orang yang kebetulan bekerja sebagai developer namun tidak suka atau takut menulis maupun melihat kode, dan yang pola pikirnya lebih ke yang penting berjalan daripada menafsirkan struktur yang sistematis atau sudut pandang maintainability, cenderung lebih kuat ketergantungan atau kepercayaan membutanya pada AI. Bisa jadi saya salah juga.

 

Ada paket yang dependensinya pada pytorch+cuda cuma berbeda di versinya saja... benar-benar kacau.
Padahal fiturnya juga nyaris tidak ada, tapi untuk tiap daemon kecil dependensinya terpasang sampai hampir 2 GB..