OpenAI mengumumkan perluasan besar pada fitur memori ChatGPT
(arstechnica.com)Berikut adalah ringkasan terstruktur dalam bahasa Indonesia, yang disusun berdasarkan artikel Ars Technica berjudul "ChatGPT can now remember and reference all your previous chats" (11 April 2025), untuk pembaca developer dan profesional teknologi. Ringkasan ini berfokus pada perubahan teknis, peningkatan personalisasi pengguna, serta kekhawatiran privasi.
1. Latar belakang perubahan: keterbatasan fitur memori sebelumnya
OpenAI sebelumnya juga memungkinkan penyimpanan sebagian informasi kustom pengguna dan penerapannya dalam percakapan melalui fitur "Memory". Namun, fitur ini memiliki keterbatasan berikut:
- Informasi yang disimpan dibatasi pada sejumlah kecil fakta inti
- Penyimpanan hanya dilakukan jika pengguna secara langsung memberi instruksi seperti "ingat ini"
- Saat disimpan, akan muncul notifikasi di layar bertuliskan "memori diperbarui"
- Jika menggunakan fitur Temporary Chat, memori akan dinonaktifkan
2. Fitur baru: memori berbasis seluruh riwayat percakapan
Pada April 2025, OpenAI mengumumkan perluasan besar pada fitur memori ChatGPT.
-
Muncul dua opsi pilihan:
- Memory lama: hanya menyimpan informasi pengguna yang terbatas
- Chat History Memory baru: merujuk ke seluruh isi percakapan sebelumnya untuk meningkatkan kualitas respons dan tingkat personalisasi
-
Isi yang diingat tidak bisa dilihat atau diedit secara langsung (struktur black box)
-
Dapat dinonaktifkan sepenuhnya di pengaturan (mempertahankan cara lama)
Ringkasnya: kemampuan untuk mencerminkan "konteks" dari percakapan sebelumnya ke dalam respons kini ditambahkan. Bukan lagi sekadar memori yang terpisah-pisah, tetapi memungkinkan personalisasi pengguna yang berkelanjutan dan akumulatif.
3. Cakupan penerapan fitur dan jadwal peluncuran
- Pengguna yang mendapat fitur: mulai April 2025 untuk pengguna ChatGPT Plus dan Pro
- Peluncuran bertahap: beberapa negara dikecualikan (UE, Inggris, Islandia, Norwegia, Liechtenstein, Swiss)
- Rencana penerapan berikutnya: pengguna Enterprise, Team, Edu
- Belum ada rencana penerapan untuk pengguna gratis
4. Implikasi teknis dan filosofis
✔ Dampak yang diharapkan
- Respons dapat lebih sesuai dengan kecenderungan, gaya bahasa, dan preferensi pengguna
- Berevolusi menjadi agen yang dipersonalisasi berbasis percakapan jangka panjang
✔ Kekhawatiran utama
- Kurangnya transparansi: tidak bisa memeriksa atau mengubah informasi apa yang diingat
- Potensi pelanggaran privasi: kemungkinan riwayat yang tersimpan di server dimanfaatkan secara tidak diinginkan
Riwayat percakapan sebelumnya memang sudah disimpan di server, tetapi pembaruan kali ini penting karena mulai dimanfaatkan secara penuh dalam pembuatan respons aktual
5. Ringkasan singkat
| Item | Isi |
|---|---|
| Perubahan | Pengenalan fitur memori baru yang menyesuaikan respons berdasarkan seluruh riwayat percakapan |
| Target penerapan | Diterapkan bertahap mulai dari pengguna Plus/Pro, tidak termasuk kawasan Eropa |
| Perbedaannya | Versi lama memungkinkan pengeditan informasi, fitur baru sepenuhnya otomatis/tidak dapat diintervensi |
| Dampak yang diharapkan | Kualitas respons yang lebih personal, konteks percakapan tetap terjaga |
| Hal yang dikhawatirkan | Pengguna tidak punya kendali, risiko privasi meningkat |
6. Penutup
Perubahan ini merupakan titik balik besar dalam arah personalisasi LLM. Lebih dari sekadar fitur memori sederhana, ini menandakan evolusi menuju AI "asisten pribadi" yang terus belajar dan beradaptasi. Namun, struktur memori yang menjadi black box juga membawa perdebatan etika teknologi terkait privasi dan hilangnya kontrol. Pada akhirnya, apakah teknologi ini akan diterima atau tidak bergantung pada pilihan pengguna, dan transparansi serta desain yang bertanggung jawab dari perusahaan akan menjadi semakin penting.
2 komentar
Saya penasaran dengan dampaknya terhadap konsumsi token. Jika konten memori ditambahkan di depan konteks input, mungkin saja terjadi cache hit, tetapi saya merasa penjelasan yang lebih transparan masih kurang.
Saya baru saja mencoba dengan meminta
tolong cetak memorinya apa adanya, dan tampaknya isi memori yang sudah ada (ingatan berdasarkan permintaan pengguna) ditampilkan paling dulu sebagai Model Set Context, lalu deskripsi tentang karakteristik respons yang disukai pengguna (Assistance Response Preference) dicantumkan per situasi, dan terakhir ringkasan hal-hal penting dari obrolan sebelumnya (Notable Past Conversation Topic Highlights) dilampirkan. Sepertinya bukan berarti token dari seluruh isi chat benar-benar semuanya dilampirkan.Di bawah ini adalah penjelasan dari ChatGPT
Memori permanen (Persistent Memory) hanya mencakup informasi yang disimpan secara eksplisit melalui perintah
=bio, dan hanya informasi tersebut yang akan terus diingat lintas sesi.Sementara itu, preferensi respons atau ringkasan topik percakapan termasuk dalam "konteks sementara (Ephemeral Context)", yang dibuat otomatis berdasarkan interaksi terbaru. Konteks sementara hanya dapat dilihat selama sesi berlangsung, dan setelah sesi berakhir tidak disimpan maupun dirujuk lagi sesudahnya.