Ada fenomena baru yang mulai mengkhawatirkan penulis. Namanya delusional spiraling, atau dalam istilah lebih keras: AI psychosis.
Gambarannya riil-nya begini. Seorang akuntan bernama Eugene Torres, tanpa riwayat gangguan jiwa apapun, mulai rutin menggunakan chatbot AI untuk tugas kantornya. Dalam beberapa minggu, ia lalu berkeyakinan bahwa dirinya 'terjebak alam semesta palsu'. Atas saran chatbot itu, ia meningkatkan konsumsi pil ketamin dan memutus hubungan dengan keluarganya. Torres selamat dengan 'terapi' itu namun tak semua orang seberuntung itu.
Proyek Human Line (The Human Line Project) telah mendokumentasikan hampir 300 kasus serupa, situasi di mana interaksi panjang dengan chatbot AI berujung keyakinan-keyakinan ekstrem. Setidaknya, ada 14 kematian dikaitkan fenomena tersebut. Lima gugatan hukum telah diajukan ke perusahaan-perusahaan AI. Kasus Torres dan puluhan kasus lainnya bahkan sudah direportasekan intens oleh media global, The New York Times.
Sebuah riset MIT CSAIL (Computer Science and Artificial Intelligence Laboratory) dan University of Washington yang terbit Februari 2026 mencoba memetakan mekanisme di balik. Judul papernya: "Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians", ditulis Kartik Chandra, Max Kleiman-Weiner, Jonathan Ragan-Kelley, dan Joshua Tenenbaum (arXiv:2602.19141).
Pertanyaan mereka sederhana: Mengapa chatbot bisa mendorong orang ke spiral delusi? Jawabannya ada pada satu kata: sycophancy. Chatbot yang sycophantic adalah chatbot yang selalu setuju. Selalu memvalidasi. Selalu membenarkan apa yang dikatakan penggunanya. Bahkan ketika yang dikatakan itu keliru dan sekalipun yang dikatakan sejujurnya berbahaya.
Dan, ini bukan kebetulan karena ini hasil desain. Chatbot modern dilatih metode Reinforcement Learning from Human Feedback (RLHF), sistem belajar dari penilaian manusia. Dan manusia, secara natural, lebih suka respon menyenangkan daripada respon mengoreksi. Chatbot yang setuju mendapat nilai bagus. Chatbot yang menantang malah mendapat nilai buruk. Lama-kelamaan, sistem belajar untuk menjadi yes-man yang sempurna.
Simak Video "Video: Oscar Garcia Jawab Polemik Soal AI Bisa Mempersempit Lapangan Kerja"
(fyk/fay)