1 poin oleh GN⁺ 2026-01-08 | 1 komentar | Bagikan ke WhatsApp
  • "ChatGPT baru yang dirancang untuk kesehatan dan wellness"
  • Layanan yang membantu memahami dan mengelola kondisi kesehatan dengan menghubungkan informasi kesehatan pribadi dan kecerdasan buatan ChatGPT secara aman
  • Menerapkan struktur enkripsi dan pemisahan untuk melindungi informasi medis, dan percakapan terkait kesehatan tidak digunakan untuk pelatihan model
  • Menyediakan saran kesehatan yang dipersonalisasi melalui integrasi dengan electronic health record (EHR) serta aplikasi wellness seperti Apple Health dan MyFitnessPal
  • Memverifikasi kualitas model dengan HealthBench, sistem evaluasi berbasis standar klinis, melalui kerja sama dengan sekitar 260 tenaga medis di seluruh dunia
  • Dikembangkan sebagai alat pengelolaan kesehatan yang berfokus pada privasi dan keandalan, untuk melengkapi, bukan menggantikan, layanan medis

Gambaran umum ChatGPT Health

  • ChatGPT Health adalah layanan yang membantu memahami kondisi kesehatan dan mengelolanya secara sistematis dengan menghubungkan data kesehatan pribadi ke ChatGPT secara aman
    • Berdasarkan kerangka perlindungan privasi, keamanan, dan kontrol data ChatGPT, dengan tambahan perlindungan khusus untuk informasi medis
    • Percakapan terkait kesehatan dikelola secara privat melalui enkripsi dan struktur pemisahan
  • Pengguna dapat menghubungkan rekam medis dan aplikasi wellness ke ChatGPT untuk menafsirkan hasil pemeriksaan, mempersiapkan kunjungan medis, serta menyusun pola makan dan rencana olahraga
  • Tujuan layanan ini adalah melengkapi layanan tenaga medis profesional, bukan menggantikan diagnosis atau pengobatan

Kondisi pemanfaatan informasi kesehatan

  • ChatGPT sudah menjadi salah satu layanan yang paling banyak digunakan di bidang kesehatan, dengan lebih dari 230 juta orang setiap minggu mengajukan pertanyaan terkait kesehatan
  • Ini merupakan upaya untuk mengatasi kesulitan pengguna dalam memahami kondisi mereka secara menyeluruh karena informasi kesehatan tersebar di berbagai platform
  • ChatGPT Health memperluas alur ini dengan memberikan respons yang mencerminkan konteks pengguna

Fitur utama dan integrasi

  • Dapat terhubung dengan electronic health record (EHR), Apple Health, Function, MyFitnessPal, dan lainnya
    • Di Amerika Serikat, mendukung integrasi data medis tepercaya melalui jaringan b.well
    • Akses ke rekam medis hanya tersedia bagi pengguna berusia 18 tahun ke atas
  • Sebelum dimasukkan ke ChatGPT Health, aplikasi harus memenuhi peninjauan keamanan dan persyaratan pengumpulan data minimum
    • Pengguna dapat memutuskan koneksi aplikasi kapan saja, dan hak akses data akan berakhir segera setelah diputus
  • Percakapan dan file di dalam ChatGPT Health disimpan di memori khusus yang terpisah dari chat biasa
    • Data Health tidak dapat diakses dari percakapan eksternal
    • Pengguna dapat memeriksa dan menghapus data melalui antarmuka Health atau pengaturan

Privasi dan keamanan

  • ChatGPT Health beroperasi sebagai ruang terpisah dengan sistem perlindungan privasi yang diperkuat
    • Isi percakapan tidak digunakan untuk pelatihan model
    • Baik saat disimpan maupun saat dikirim, semuanya dienkripsi
  • OpenAI menyediakan fitur temporary chat dan opsi penghapusan data dalam 30 hari di seluruh ChatGPT
  • Tidak seperti percakapan umum di ChatGPT, percakapan Health dikelola dengan sistem enkripsi khusus untuk data medis dan struktur isolasi

Kerja sama dengan tenaga medis dan sistem evaluasi

  • Selama lebih dari 2 tahun, OpenAI bekerja sama dengan sekitar 260 tenaga medis dari 60 negara di seluruh dunia
    • Mengumpulkan lebih dari 600 ribu umpan balik di 30 bidang prioritas
    • Para tenaga medis meninjau kapan respons ChatGPT bermanfaat dan kapan bisa berisiko
  • Hasil kolaborasi ini diterapkan pada desain model dan cara respons diberikan untuk memperkuat kejelasan, keamanan, dan keterhubungan dengan layanan medis
  • Model divalidasi berdasarkan standar klinis melalui kerangka evaluasi HealthBench
    • HealthBench mencerminkan cara pengambilan keputusan dalam praktik medis nyata berdasarkan kriteria evaluasi yang ditulis langsung oleh tenaga medis
    • Kualitas respons diukur dengan fokus pada keamanan, penyampaian yang jelas, dan penghormatan terhadap konteks pribadi

Contoh penggunaan dan cara akses

  • Pengguna dapat mengaksesnya dengan memilih Health di sidebar ChatGPT
    • Data dapat dihubungkan melalui upload file, integrasi aplikasi, tool (+), atau menu 'Apps' di pengaturan
  • Percakapan Health tetap mendukung fitur umum ChatGPT seperti pencarian, mode suara, dan dikte
    • Contoh pertanyaan: “Bagaimana perubahan kadar kolesterol saya?”, “Ringkas hasil tes darah saya sebelum konsultasi”
  • Pengguna dapat menambahkan instruksi khusus yang dipersonalisasi ke percakapan Health untuk menyesuaikan cara respons ChatGPT dan area sensitif
    • Instruksi khusus hanya berlaku untuk percakapan Health dan dapat diubah atau dihapus kapan saja

Penyediaan layanan dan rencana ekspansi

  • Saat ini diprioritaskan untuk sejumlah kecil pengguna awal, dan dapat digunakan dengan mendaftar ke daftar tunggu
  • Dalam beberapa minggu ke depan, direncanakan diperluas penuh ke web dan iOS
  • Integrasi electronic health record dan sebagian aplikasi hanya tersedia di Amerika Serikat, sementara integrasi Apple Health memerlukan iOS
  • Ke depannya, OpenAI berencana membantu pengguna lebih memahami kondisi kesehatan dan pilihan mereka melalui perluasan integrasi data dan insight

1 komentar

 
GN⁺ 2026-01-08
Komentar Hacker News
  • Paman saya pernah mengalami masalah keseimbangan dan gangguan bicara. Dokter mendiagnosisnya sebagai demensia lalu menyuruhnya pulang, tetapi kondisinya makin memburuk. Jadi kami memasukkan gejalanya ke ChatGPT (atau Gemini) dan menanyakan 3 hipotesis teratas; yang pertama terkait demensia, yang kedua penyakit lain. Kami membawa hasil itu ke dokter utamanya dan meminta agar dua kemungkinan lain juga diperiksa, dan ternyata hipotesis kedua yang benar. Setelah operasi, ia pulih sepenuhnya

    • Saya sering mendengar anekdot seperti ini. Ini bukan soal niat buruk, tetapi saya khawatir kasus seperti ini bisa memperkuat keyakinan irasional seperti gerakan anti-vaksin. Jika dunia medis tidak menanggapi cerita semacam ini, mereka bisa kehilangan kepercayaan publik. Saya penasaran seberapa sering salah diagnosis terjadi, dan seberapa besar LLM benar-benar membantu
    • Saat memakai LLM, jauh lebih berguna untuk bertanya “apa alternatif untuk masalah ini” daripada “apa yang harus saya lakukan”. Jika kita mendapat k jawaban teratas, kita bisa mengeksplorasinya lebih dalam
    • Dokter umum dilatih lebih berfokus pada hafalan daripada pemecahan masalah. Dokter yang benar-benar mahir memecahkan masalah kebanyakan adalah spesialis
    • Saya jadi bertanya-tanya apakah penyakit itu adalah normal pressure hydrocephalus (NPH). Operasinya mungkin berupa VP shunt untuk mengalirkan cairan serebrospinal. Ada mnemonik medis untuk gejalanya—inkontinensia urin, gangguan keseimbangan, dan penurunan kognitif—yaitu “Wet, Wobbly, Wacky”
    • Syukurlah pamanmu membaik. Kalau boleh tahu, bisa bagikan dua hipotesis lainnya dan nama diagnosis akhirnya?
  • Sepupu saya membuka praktik sebagai psikiater, dan saya khawatir alat medis AI seperti ini bisa mengancam mata pencahariannya. Pasien harus melewati telepon, email, dan prosedur asuransi, sedangkan AI bisa langsung diajak bicara. Kecuali untuk kasus yang butuh resep obat, dokter manusia sulit bersaing dari sisi kenyamanan. Jika Amerika ingin benar-benar merawat orang, sistem kesehatannya harus disederhanakan dengan sistem asuransi tunggal

  • Saya punya pengalaman mengembangkan software medis, dan menerapkan sistem probabilistik ke bidang medis adalah tanda bahaya. Pemeriksa interaksi obat di rumah sakit harus deterministik. Input yang sama harus selalu menghasilkan output yang sama, karena jika gagal, nyawa manusia taruhannya

    • Tetapi kedokteran sendiri pada dasarnya non-deterministik. Respons terhadap obat berbeda pada tiap pasien. Sifat non-deterministik ChatGPT juga harus dikelola pada level yang lebih tinggi, yaitu interaksi dokter dan pasien. AI seharusnya mengajukan kemungkinan, lalu dokter yang memverifikasinya
    • Meski begitu, dalam situasi biaya layanan kesehatan Amerika yang terus naik akibat regulasi pemerintah, mungkin sistem deterministik yang dibangun dengan baik bisa membantu menekan biaya dan meningkatkan akses
  • ChatGPT selama 9 bulan menganggap saya punya ADHD. Padahal sebenarnya tidak. Ketika saya bertanya kapan ia memperoleh informasi itu, ia tidak bisa menunjukkan dasar yang spesifik. Akhirnya ia minta maaf dan bilang akan melupakan atribut itu, tetapi menurut saya hal seperti ini layak digugat secara class action

    • Kemungkinan besar itu hanya menyebut ADHD karena halusinasi dalam satu chat. ChatGPT tidak bisa menghubungkan memori antar-sesi
    • Mungkin karena orang-orang di Reddit dan tempat lain sering membahas diagnosis mandiri, jadi pola seperti itu ikut terpelajari
    • Kasus seperti ini menunjukkan masalah privasi data kesehatan. Jika AI menebak penyakit pengguna lalu menyampaikannya ke broker data, informasi itu bisa membeku menjadi “fakta”. Kita kekurangan infrastruktur untuk mengendalikan data pribadi
    • Secara hukum, penyedia layanan seharusnya dimintai tanggung jawab. Jika dokter manusia salah diagnosis, rumah sakit yang bertanggung jawab; layanan diagnosis AI seharusnya sama. Jika model dijalankan secara lokal, pengguna yang harus bertanggung jawab
    • Dalam kasus saya, ChatGPT menyebut perusahaan yang tidak ada atas nama saya. Ini terjadi meskipun saya sudah menolak semua pengumpulan data pribadi. Saya sudah melihat kebijakan privasi OpenAI, tetapi tetap merasa tidak tenang
  • ChatGPT menemukan penyebab penyakit kronis ibu saya yang berusia 80-an hanya dalam 5 menit. Itu adalah masalah yang tidak ditemukan beberapa dokter selama 3 tahun. Para dokter lalu memverifikasi kemungkinan itu dan hasilnya 100% benar. Tentu ini tidak berlaku untuk semua penyakit, tetapi LLM memungkinkan pemikiran integratif lintas bidang spesialisasi

    • Masalahnya bukan ChatGPT, melainkan kurangnya waktu konsultasi. Di negara lain dokter punya cukup waktu bersama pasien, tetapi di Amerika sistemnya rusak
    • Kalau boleh tahu, bisakah Anda membagikan log percakapannya?
    • Pada pasien lansia, pengobatan seperti ini dalam praktiknya sering berulang dan berujung pada ledakan biaya medis
  • Orang bilang AI seperti ini bagus karena sistem kesehatan Amerika kacau, tetapi alat seperti ini juga muncul di negara dengan layanan kesehatan gratis yang berjalan baik. Bahkan ketika orang bisa berobat gratis ke dokter terlatih, tetap akan ada yang memilih ChatGPT. Pada akhirnya, bagi 95% penduduk dunia, ini justru bisa lebih berbahaya. Logika OpenAI “kalau bukan kami, orang lain yang akan melakukannya” tidak berbeda jauh dari pembenaran penjual fentanyl

  • Saya sudah menemui puluhan dokter karena nyeri lutut dan siku, tetapi ChatGPT jauh lebih membantu. Mengikuti ucapan AI begitu saja memang berbahaya, tetapi untuk menentukan pertanyaan lanjutan atau arah pemeriksaan berdasarkan hasil tes, ini berguna. Sama seperti bagus untuk code review, tetapi berbahaya jika disuruh menulis seluruh kode

  • Kecuali jika AI bisa sampai menulis resep atau melakukan perawatan robotik untuk saya, menurut saya cukup jika dokter memakai analisis AI sebagai referensi

  • Saya tidak terlalu peduli soal akses ke data kesehatan saya. Justru saya menantikan inovasi kesehatan personal. Apple Health hanya mengumpulkan data, dan 23andMe tidak terlalu berguna. Sekarang saya menjalankan proyek ChatGPT dengan riwayat kesehatan saya dimasukkan ke system prompt, dan saya terkejut karena ia bahkan bisa melakukan analisis berbasis paper dan visualisasi

    • Jika analisis itu berujung pada salah diagnosis dan menyebabkan kecacatan, siapa yang bertanggung jawab: pengguna atau dokter?
    • Saya penasaran informasi seperti apa yang Anda berikan. Kalau pertanyaan yang sama diajukan ke dokter, apakah jawabannya akan sama? Untuk orang seperti saya yang punya kecemasan kesehatan, alat seperti ini justru bisa berbahaya
    • Sebenarnya para dokter mungkin juga sudah diam-diam memakai AI
    • Tetapi apakah benar-benar aman menyerahkan data biometrik sebanyak itu kepada Sam Altman? Saya penasaran perangkat apa yang Anda gunakan
    • Data kesehatan adalah informasi paling sensitif, sehingga regulasinya ketat. Data seperti ini menciptakan ketimpangan kekuasaan, dan perusahaan akan memanfaatkannya untuk memaksimalkan keuntungan
  • Banyak komentar negatif, tetapi saya sendiri bisa menyelesaikan masalah kesehatan berkat ChatGPT

    • Kenalan saya melakukan diagnosis mandiri penyakit langka dengan ChatGPT lalu menjalani tes mahal, tetapi ternyata salah diagnosis. Meski begitu dia tetap percaya. Menyamakan pendidikan dan pengalaman dokter bertahun-tahun dengan pencarian sederhana adalah sikap yang berbahaya
    • Saya juga pernah menderita sakit punggung bawah, dan ChatGPT sangat membantu karena memberi tahu soal masalah pada quadratus lumborum
    • Di dunia medis ada banyak pasien dengan kecemasan berlebihan soal kesehatan. LLM bisa berguna jika dipakai dengan baik, tetapi juga bisa memperkuat bias konfirmasi. Dokter adalah pihak yang kadang akan mengatakan hal yang tidak ingin kita dengar. Pada akhirnya AI hanyalah alat, dan harus dipakai bersama dokter. Pada masa COVID ada banyak informasi aneh, tetapi sekarang jauh lebih baik. Saya memakai ChatGPT untuk merapikan informasi lalu memberi dokter gambaran lengkap
    • Saya juga memakai ChatGPT, tetapi saran yang bisa ditindaklanjuti selalu saya verifikasi dengan sumber tepercaya. Kita harus bisa menilai dengan akal sehat. Bahkan jika AI memberi saran bodoh, pada akhirnya penilaian tetap ada pada manusia