- Kesimpulan
- Alasan banyak AI Decision Support System (DSS) gagal di lapangan bukanlah performa model, melainkan karena ‘kepercayaan tidak dirancang sejak awal’.
- Tulisan ini mendefinisikan ulang kepercayaan bukan sebagai emosi atau masalah UX, melainkan sebagai perangkat prediksi dalam situasi berisiko sekaligus sebuah ‘kontrak’, dan menjelaskan mengapa pendekatan “meningkatkan kepercayaan” justru dapat memicu tidak digunakan atau penyalahgunaan.
- Dasar
- Inti masalah kepercayaan adalah kebingungan antara trust (sikap pengguna) dan trustworthiness (kemampuan nyata)
- Pengguna tidak sekadar mempercayai AI secara samar, tetapi mempercayai kontrak tertentu seperti akurasi, keadilan, dan akuntabilitas
- Jika kontrak dan batasannya tidak dinyatakan dengan jelas, UI, otoritas, dan nada penjelasan dapat membentuk kepercayaan yang tidak semestinya hingga berujung pada insiden
- Peran explainability (XAI) juga bukan untuk “memperkuat” kepercayaan, melainkan untuk mengoreksi ketergantungan atau kecurigaan
- Eksekusi (cara perbaikan)
- Jika Anda membuat atau mengadopsi AI-DSS, sudut pandangnya perlu bergeser dari “bagaimana meningkatkan kepercayaan?” menjadi
“apa yang harus dipercaya, dan kapan harus meragukan atau menahan keputusan?”
- Ringkasan satu kalimat
- Penyebab kegagalan AI-DSS bukan performa, melainkan perancangan kepercayaan; solusinya adalah desain yang berpusat pada kontrak, kerentanan, dan kalibrasi.
Belum ada komentar.