PHP mungkin akan menjadi contoh yang bagus sekaligus contoh yang terburuk.
Di satu sisi, ini menjadi contoh yang baik karena di dokumentasi resmi pengguna bisa mengunggah konten kontribusi sehingga kita bisa melihat berbagai contoh kode.
...di sisi lain, PHP punya banyak perbedaan BC yang subtil pada fungsi-fungsi bawaannya, dan contoh-contoh kontribusi itu kebanyakan berasal dari versi zaman baheula, jadi tercampur dengan hal-hal yang sedikit berbeda dari perilaku sebenarnya dan malah menambah kebingungan... wkwk..k...
Kalau melihat dokumentasi pengembangan iOS atau Cocoa zaman dulu, ada bagian use case tersendiri; bukankah itu metode dokumentasi yang tepat? Contoh, signature fungsi, dan penjelasan perilaku semuanya diperlukan
Melihat komentarnya, ada juga yang berbicara seolah dari dulu memang begitu, tetapi menurut saya itu cuma alasan. Kebocoran memori adalah masalah yang jelas bisa diketahui hanya dengan menjalankan program dalam waktu minimum saja, jadi fakta bahwa itu tidak dilakukan benar-benar agak tidak masuk akal.
Menurut saya, ini sekarang masih tergolong ringan. Jika nanti datang dunia di mana AI terhubung sehingga bisa langsung melakukan tindakan fisik dan bahkan transaksi keuangan, benar-benar bisa terjadi bencana besar.
Saya harap stabilitas Explorer di Windows 11 bisa ditingkatkan.
Akan bagus juga kalau pemisahan tab bisa secepat dan seresponsif browser berbasis Chromium..
Di ekosistem Java dan budaya berorientasi objek, ada sangat banyak kalimat penjelasan yang tidak bermakna dan dokumentasi yang formalistis, dan bahkan di framework ekosistem Python yang mewarisi suasana itu, contoh penggunaannya juga cenderung sangat minim.
Contoh dokumentasi yang tidak bermakna
add(left, right) - menambahkan ruas kiri dan ruas kanan
Yang justru penting seperti tipe data parameter, bentuk pengecualian atau nilai hasil yang bisa dikembalikan, atau struktur cara kerjanya, malah tidak dijelaskan.
Kalau seperti man page bahasa C, hanya dengan penjelasan singkat pun tetap bisa dipakai, setidaknya dengan menebak dari nama fungsi dan nama parameternya.
Saya menyukai semua alat. Kedua alat itu memiliki ekosistem dan tujuan yang sebagian saling beririsan, jadi bukan alat yang benar-benar sama dan tidak seharusnya dinilai berdasarkan tingkat kesulitannya. Jika ditulis dengan vite, skrip bisa dibuat secara luas dan terperinci. Sementara Stimulus atau Hotwire lebih cocok untuk meminimalkan pengembangan skrip.
Saya baru-baru ini pindah rumah jadi harus membersihkan tempat sampah. Kalau dikerjakan di halaman belakang rasanya terlalu kotor, jadi saya sempat bingung, tapi ternyata ada bisnis unik di sekitar rumah.
Ada kendaraan pembersih yang datang sampai depan rumah; kita tinggal memasukkan tempat sampah ke dalamnya, lalu peralatan otomatis di dalam kendaraan itu akan mencucinya sampai bersih. Air bekas cucian kemudian dibawa ke tempat usaha mereka untuk diproses lanjutan sebelum dibuang, jadi sepertinya mereka juga terdaftar sebagai perusahaan lingkungan dan bisa mendapat manfaat pajak.
Nama perusahaannya adalah happy cans. Ini adalah bisnis lokal di San Diego, dan mungkin ada satu bisnis seperti ini di setiap kota.
Saya penasaran dengan pendapat orang lain yang benar-benar sudah mencobanya, tetapi secara pribadi saya merasa tidak akan terus menggunakannya karena terlalu sering melihat salah ketik di artikelnya (misalnya kalimat berakhir begitu saja karena ada kata yang hilang). Padahal ini layanan yang sangat saya nantikan..
Saya ingin menelusuri sumbernya lebih jauh, tetapi artikel Google Change Explains Reddit’s Sudden Drop in ChatGPT Mentions yang dijadikan referensi di sumber asli tampaknya sudah diturunkan, jadi saya tidak bisa memeriksa isinya.
Di bagian utama ada hal yang agak meragukan bagi saya, yakni ketika ditulis, "Coba bayangkan posting Reddit, diskusi komunitas, atau thread para ahli. Apakah konten seperti ini akan masuk ke 10 besar Google untuk kata kunci komersial? Hampir tidak. Namun, Reddit menguasai peringkat 15–40." Namun tepat di bawahnya justru ada grafik Top 10 Websites milik Perplexity yang menunjukkan Reddit berada di posisi 1 dengan 46,7%. Ini terasa agak kontradiktif. Mungkin ada pengaruh rekomendasi yang dipersonalisasi, tetapi secara pengalaman pun hasil Reddit memang sering muncul di bagian atas pencarian Google.
Selain itu, memang benar bahwa sejak 12 September perilaku parameter kueri num=100 pada hasil pencarian Google berubah sehingga hanya mengembalikan 10 hasil[^1], tetapi ada pendapat bahwa meski ini sempat menimbulkan kebingungan karena dampaknya pada alat SEO, pada dasarnya ini masih termasuk wilayah yang bisa diatasi dengan membayar biaya untuk 10 kueri alih-alih 1 kueri sebelumnya, atau dengan memakai kueri yang lebih presisi[^2]. Sebaliknya, ada juga pendapat bahwa penurunan traffic sitasi Reddit di ChatGPT bisa jadi disebabkan perubahan spesifikasi model internal OpenAI pada 12 September[^3].
Idenya bagus, tetapi melihat gambar contohnya, kelihatannya benar-benar berjalan sangat lambat... Saya kira ini aplikasi node.js, tetapi ternyata ditulis dengan Rust, jadi saya cukup terkejut.
Saya juga tidak suka diminta memasangnya dengan skrip instalasi yang panjang dan aneh. Membayangkan harus mencari tahu cara menghapusnya lalu menghapusnya satu per satu membuat saya jadi tidak berminat untuk memasangnya.
Untuk saat ini mungkin baru terasa sedikit tidak nyaman, tetapi kalau begitu konten yang diperluas dan direproduksi oleh AI juga pada akhirnya semuanya akan berasal dari isi 10 besar teratas, jadi data di luar peringkat pada akhirnya akan cepat terdorong ke belakang dari sisi aksesibilitas sehingga keberagamannya rusak, dan kalau diungkapkan agak berlebihan, bukankah ini bisa menjadi semacam “inses” konten AI yang menimbulkan sejenis penyakit genetik data.
Mungkin ini imajinasi yang terlalu mengada-ada, tetapi jika dipikirkan bahwa sangat banyak orang hanya mengakses data dari wilayah yang terbatas melalui kecerdasan buatan, lalu data yang diproduksi melalui kecerdasan buatan kembali masuk ke pembelajaran kecerdasan buatan sebagai data, secara intuitif rasanya ini bukan arah yang lebih baik.
Tentu saja, masalah lalu lintas berlebihan yang ditimbulkan oleh AI juga tidak bisa diabaikan begitu saja.
Saham sempat melonjak karena OpenAI katanya membeli chip AMD sebagai imbalan menerima opsi saham, tetapi sebaliknya kalau muncul kabar kinerja OpenAI memburuk atau pertumbuhannya melambat, saya benar-benar tidak bisa membayangkan sampai sejauh mana dampaknya akan ikut menyebar. Rasanya seperti saat subprime mortgage 2008, perusahaan big tech dan perusahaan AI semuanya tampak saling terkopel.
PHP mungkin akan menjadi contoh yang bagus sekaligus contoh yang terburuk.
Di satu sisi, ini menjadi contoh yang baik karena di dokumentasi resmi pengguna bisa mengunggah konten kontribusi sehingga kita bisa melihat berbagai contoh kode.
...di sisi lain, PHP punya banyak perbedaan BC yang subtil pada fungsi-fungsi bawaannya, dan contoh-contoh kontribusi itu kebanyakan berasal dari versi zaman baheula, jadi tercampur dengan hal-hal yang sedikit berbeda dari perilaku sebenarnya dan malah menambah kebingungan... wkwk..k...
Bagus juga.
Kalau melihat dokumentasi pengembangan iOS atau Cocoa zaman dulu, ada bagian use case tersendiri; bukankah itu metode dokumentasi yang tepat? Contoh, signature fungsi, dan penjelasan perilaku semuanya diperlukan
Awalnya aku sempat bingung ini ngomongin apa wkwkwkwk
Dulu kekurangan dokumentasi resmi tertutupi oleh Stack Overflow dan pencarian Google, sedangkan sekarang rasanya kekosongan itu diisi oleh LLM.
Melihat komentarnya, ada juga yang berbicara seolah dari dulu memang begitu, tetapi menurut saya itu cuma alasan. Kebocoran memori adalah masalah yang jelas bisa diketahui hanya dengan menjalankan program dalam waktu minimum saja, jadi fakta bahwa itu tidak dilakukan benar-benar agak tidak masuk akal.
Menurut saya, ini sekarang masih tergolong ringan. Jika nanti datang dunia di mana AI terhubung sehingga bisa langsung melakukan tindakan fisik dan bahkan transaksi keuangan, benar-benar bisa terjadi bencana besar.
Saya harap stabilitas Explorer di Windows 11 bisa ditingkatkan. Akan bagus juga kalau pemisahan tab bisa secepat dan seresponsif browser berbasis Chromium..
Di ekosistem Java dan budaya berorientasi objek, ada sangat banyak kalimat penjelasan yang tidak bermakna dan dokumentasi yang formalistis, dan bahkan di framework ekosistem Python yang mewarisi suasana itu, contoh penggunaannya juga cenderung sangat minim.
Contoh dokumentasi yang tidak bermakna
add(left, right) - menambahkan ruas kiri dan ruas kanan
Yang justru penting seperti tipe data parameter, bentuk pengecualian atau nilai hasil yang bisa dikembalikan, atau struktur cara kerjanya, malah tidak dijelaskan.
Kalau seperti man page bahasa C, hanya dengan penjelasan singkat pun tetap bisa dipakai, setidaknya dengan menebak dari nama fungsi dan nama parameternya.
Mereka masih belum benar-benar sadar.
Untuk NVMe, kebijakan itu masih tetap dipertahankan..
Saya menyukai semua alat. Kedua alat itu memiliki ekosistem dan tujuan yang sebagian saling beririsan, jadi bukan alat yang benar-benar sama dan tidak seharusnya dinilai berdasarkan tingkat kesulitannya. Jika ditulis dengan vite, skrip bisa dibuat secara luas dan terperinci. Sementara Stimulus atau Hotwire lebih cocok untuk meminimalkan pengembangan skrip.
Saya baru-baru ini pindah rumah jadi harus membersihkan tempat sampah. Kalau dikerjakan di halaman belakang rasanya terlalu kotor, jadi saya sempat bingung, tapi ternyata ada bisnis unik di sekitar rumah.
Ada kendaraan pembersih yang datang sampai depan rumah; kita tinggal memasukkan tempat sampah ke dalamnya, lalu peralatan otomatis di dalam kendaraan itu akan mencucinya sampai bersih. Air bekas cucian kemudian dibawa ke tempat usaha mereka untuk diproses lanjutan sebelum dibuang, jadi sepertinya mereka juga terdaftar sebagai perusahaan lingkungan dan bisa mendapat manfaat pajak.
Nama perusahaannya adalah happy cans. Ini adalah bisnis lokal di San Diego, dan mungkin ada satu bisnis seperti ini di setiap kota.
Sekarang ini benar-benar py(3.14)thon
Saya penasaran dengan pendapat orang lain yang benar-benar sudah mencobanya, tetapi secara pribadi saya merasa tidak akan terus menggunakannya karena terlalu sering melihat salah ketik di artikelnya (misalnya kalimat berakhir begitu saja karena ada kata yang hilang). Padahal ini layanan yang sangat saya nantikan..
Sepertinya di not by AI yang pernah saya lihat dulu juga membahas hal serupa. Ungkapan "penyakit genetik data" terdengar segar ya wkwk.
Seramnya sampai bikin geleng-geleng kepala;
Saya ingin menelusuri sumbernya lebih jauh, tetapi artikel Google Change Explains Reddit’s Sudden Drop in ChatGPT Mentions
yang dijadikan referensi di sumber asli tampaknya sudah diturunkan, jadi saya tidak bisa memeriksa isinya.
Di bagian utama ada hal yang agak meragukan bagi saya, yakni ketika ditulis, "Coba bayangkan posting Reddit, diskusi komunitas, atau thread para ahli. Apakah konten seperti ini akan masuk ke 10 besar Google untuk kata kunci komersial? Hampir tidak. Namun, Reddit menguasai peringkat 15–40." Namun tepat di bawahnya justru ada grafik Top 10 Websites milik Perplexity yang menunjukkan Reddit berada di posisi 1 dengan 46,7%. Ini terasa agak kontradiktif. Mungkin ada pengaruh rekomendasi yang dipersonalisasi, tetapi secara pengalaman pun hasil Reddit memang sering muncul di bagian atas pencarian Google.
Selain itu, memang benar bahwa sejak 12 September perilaku parameter kueri
num=100pada hasil pencarian Google berubah sehingga hanya mengembalikan 10 hasil[^1], tetapi ada pendapat bahwa meski ini sempat menimbulkan kebingungan karena dampaknya pada alat SEO, pada dasarnya ini masih termasuk wilayah yang bisa diatasi dengan membayar biaya untuk 10 kueri alih-alih 1 kueri sebelumnya, atau dengan memakai kueri yang lebih presisi[^2]. Sebaliknya, ada juga pendapat bahwa penurunan traffic sitasi Reddit di ChatGPT bisa jadi disebabkan perubahan spesifikasi model internal OpenAI pada 12 September[^3].Saya setuju dengan pendapat bahwa AEO itu penting, tetapi klaim bahwa "jika tidak bisa masuk 10 besar hasil pencarian Google, Anda akan benar-benar menghilang dari mesin AI termasuk ChatGPT" terasa lemah dari sisi dasar buktinya.
[^1]: https://searchengineland.com/google-search-rank-and-position-tracking-…
[^2]: https://locomotive.agency/blog/…
[^3]: https://sherwood.news/markets/…
Idenya bagus, tetapi melihat gambar contohnya, kelihatannya benar-benar berjalan sangat lambat... Saya kira ini aplikasi node.js, tetapi ternyata ditulis dengan Rust, jadi saya cukup terkejut.
Saya juga tidak suka diminta memasangnya dengan skrip instalasi yang panjang dan aneh. Membayangkan harus mencari tahu cara menghapusnya lalu menghapusnya satu per satu membuat saya jadi tidak berminat untuk memasangnya.
Untuk saat ini mungkin baru terasa sedikit tidak nyaman, tetapi kalau begitu konten yang diperluas dan direproduksi oleh AI juga pada akhirnya semuanya akan berasal dari isi 10 besar teratas, jadi data di luar peringkat pada akhirnya akan cepat terdorong ke belakang dari sisi aksesibilitas sehingga keberagamannya rusak, dan kalau diungkapkan agak berlebihan, bukankah ini bisa menjadi semacam “inses” konten AI yang menimbulkan sejenis penyakit genetik data.
Mungkin ini imajinasi yang terlalu mengada-ada, tetapi jika dipikirkan bahwa sangat banyak orang hanya mengakses data dari wilayah yang terbatas melalui kecerdasan buatan, lalu data yang diproduksi melalui kecerdasan buatan kembali masuk ke pembelajaran kecerdasan buatan sebagai data, secara intuitif rasanya ini bukan arah yang lebih baik.
Tentu saja, masalah lalu lintas berlebihan yang ditimbulkan oleh AI juga tidak bisa diabaikan begitu saja.
Saham sempat melonjak karena OpenAI katanya membeli chip AMD sebagai imbalan menerima opsi saham, tetapi sebaliknya kalau muncul kabar kinerja OpenAI memburuk atau pertumbuhannya melambat, saya benar-benar tidak bisa membayangkan sampai sejauh mana dampaknya akan ikut menyebar. Rasanya seperti saat subprime mortgage 2008, perusahaan big tech dan perusahaan AI semuanya tampak saling terkopel.