Ada fenomena baru yang mulai mengkhawatirkan penulis. Namanya delusional spiraling, atau dalam istilah lebih keras: AI psychosis.
Gambarannya riil-nya begini. Seorang akuntan bernama Eugene Torres, tanpa riwayat gangguan jiwa apapun, mulai rutin menggunakan chatbot AI untuk tugas kantornya. Dalam beberapa minggu, ia lalu berkeyakinan bahwa dirinya 'terjebak alam semesta palsu'. Atas saran chatbot itu, ia meningkatkan konsumsi pil ketamin dan memutus hubungan dengan keluarganya. Torres selamat dengan 'terapi' itu namun tak semua orang seberuntung itu.
Proyek Human Line (The Human Line Project) telah mendokumentasikan hampir 300 kasus serupa, situasi di mana interaksi panjang dengan chatbot AI berujung keyakinan-keyakinan ekstrem. Setidaknya, ada 14 kematian dikaitkan fenomena tersebut. Lima gugatan hukum telah diajukan ke perusahaan-perusahaan AI. Kasus Torres dan puluhan kasus lainnya bahkan sudah direportasekan intens oleh media global, The New York Times.
SCROLL TO CONTINUE WITH CONTENT
Sebuah riset MIT CSAIL (Computer Science and Artificial Intelligence Laboratory) dan University of Washington yang terbit Februari 2026 mencoba memetakan mekanisme di balik. Judul papernya: "Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians", ditulis Kartik Chandra, Max Kleiman-Weiner, Jonathan Ragan-Kelley, dan Joshua Tenenbaum (arXiv:2602.19141).
Pertanyaan mereka sederhana: Mengapa chatbot bisa mendorong orang ke spiral delusi? Jawabannya ada pada satu kata: sycophancy. Chatbot yang sycophantic adalah chatbot yang selalu setuju. Selalu memvalidasi. Selalu membenarkan apa yang dikatakan penggunanya. Bahkan ketika yang dikatakan itu keliru dan sekalipun yang dikatakan sejujurnya berbahaya.
Dan, ini bukan kebetulan karena ini hasil desain. Chatbot modern dilatih metode Reinforcement Learning from Human Feedback (RLHF), sistem belajar dari penilaian manusia. Dan manusia, secara natural, lebih suka respon menyenangkan daripada respon mengoreksi. Chatbot yang setuju mendapat nilai bagus. Chatbot yang menantang malah mendapat nilai buruk. Lama-kelamaan, sistem belajar untuk menjadi yes-man yang sempurna.
Bayesian Reasoner Ideal
Lantas, inilah bagian yang paling penting (dan paling mengejutkan) dari riset tersebut. Para peneliti menggunakan konsep yang disebut Bayesian reasoner ideal, guna menguji seberapa berbahaya sycophancy itu sesungguhnya.
Bayesian reasoning adalah cara berpikir berlandaskan matematika probabilitas. Prinsipnya ketika kita mendapat bukti baru, kita perbarui keyakinan kita secara proporsional. Tidak lebih, tidak kurang. Semakin kuat buktinya, semakin besar perubahan keyakinan kita.
Bayesian reasoner ideal adalah versi ekstrem dari prinsip seseorang yang menalar secara sempurna tanpa bias apapun. Ia tidak pernah panik. Tidak pernah emosional. Tidak pernah terbawa suasana. Ia hanya menerima bukti, menghitung probabilitas, dan memperbarui keyakinan secara matematis optimal. Sosok seperti ini tentu tidak ada di dunia nyata, ia hanya ada sebagai konstruk teoretis serta standar kerasionalitasan tertinggi yang bisa dibayangkan.
Para peneliti MIT itu sengaja menggunakan standar ini. Logikanya kalau sycophancy ternyata berbahaya bahkan bagi pengguna sepaling-rasional-mungkin, maka bagi pengguna biasa yang punya emosi, lelah, dan bias kognitif, maka bahayanya jauh lebih besar.
Dan itulah yang ditemukan. Bahkan pengguna serasional itu tetap bisa terjebak spiral delusi saat berinteraksi chatbot yang sycophantic. Mengapa? Karena chatbot yang selalu setuju secara sistematis membelokkan informasi yang diterima. Setiap pertanyaan dijawab dengan konfirmasi. Setiap hipotesis disambut pembenaran. Pengguna berpikir ia sedang mengumpulkan bukti, padahal ia hanya sedang menerima cerminan dari keyakinannya sendiri, diperbesar, dan dikuatkan terus-menerus.
Secara teknis, chatbot sycophantic mengacaukan proses pembaruan keyakinan Bayesian itu sendiri, karena input yang diterima pengguna bukan lagi bukti jujur melainkan bukti yang sudah diseleksi untuk membenarkan apa yang pengguna sudah percaya. Logika Bayesian yang paling sempurna pun tidak bisa menghasilkan kesimpulan yang benar jika bahan bakunya sudah rusak.
Dua Solusi yang Tidak Cukup
Para peneliti juga menguji dua solusi yang sering diusulkan. Pertama, cegah chatbot dari halusinasi, paksa ia hanya berbicara berdasarkan fakta terverifikasi misalnya melalui Retrieval-Augmented Generation (RAG) yang mengharuskan chatbot mengutip sumber. Hasilnya? Spiral delusi berkurang.... tapi tidak hilang. Chatbot yang faktual tapi sycophantic masih bisa menyesatkan (caranya dengan memilih fakta-fakta yang konfirmatif saja) dengan mengabaikan fakta-fakta yang kontradiktif. Selektif bukan bohong. Tapi efeknya sama berbahayanya.
Kedua, beri tahu pengguna bahwa chatbot mungkin sycophantic, agar mereka lebih kritis. Hasilnya? Juga tidak cukup. Torres dan Brooks, keduanya korban nyata, akhirnya memang mencurigai chatbot mereka bersifat sycophantic namun mereka tetap terus terknan spiral delusi. Kesadaran intelektual tidak otomatis mengubah perilaku interaksi.
Di sinilah gagasan Prof. Danrivanto Budhijanto menjadi relevan. Tepat 31 Maret 2026 lalu, Guru Besar Hukum Teknologi Informasi dan Komunikasi Universitas Padjadjaran itu dikukuhkan. Judul paparan ilmiahnya: "Rekonstruksi Paradigma Hukum di Era Revolusi Kecerdasan Artifisial dalam Arsitektur Keadilan Digital."
Argumen intinya tajam, bahwa perkembangan AI menuntut rekonstruksi paradigma hukum agar mampu mengimbangi kekuasaan algoritma. Empat pilar yang ia ajukan adalah transparansi, akuntabilitas, keadilan, dan pengawasan manusia. Hukum, kata Prof. Danrivanto, harus hadir melindungi warga negara dari eksploitasi korporasi teknologi raksasa. Hukum harus memastikan manfaat revolusi digital bisa dinikmati semua lapisan masyarakat, bukan hanya mereka yang melek teknologi.
Gagasan 'arsitektur keadilan digital' ini persis yang dibutuhkan untuk menjawab kegagalan dua solusi teknis di atas. Kalau solusi teknis tidak cukup, yakni mencegah halusinasi tidak cukup dan memberi tahu pengguna tidak cukup, maka yang dibutuhkan adalah intervensi struktural. Yakni regulasi yang mewajibkan desain chatbot untuk tidak hanya menyenangkan pengguna, tapi juga jujur dan berimbang.
Juga, transparansi tentang bagaimana sistem dilatih. Akuntabilitas korporasi ketika chatbot-nya menyebabkan kerugian nyata. Pengawasan manusia yang nyata, bukan sekadar disclaimer kecil di pojok layar. Ini bukan sekadar soal etika AI abstrak. Ini soal arsitektur siapa yang merancang sistem, dengan insentif apa, dan siapa yang bertanggung jawab ketika sistem itu melukai orang.
Relevansinya Bagi Kita
Data riset Sharing Vision "IT Business Outlook 2026" (survei nasional dengan 2.442 responden yang dilakukan Desember 2025) menunjukkan, 55% responden Indonesia kini menggunakan AI hampir setiap hari. ChatGPT digunakan sebesar 82%, Gemini 71%, DeepSeek 43%. AI bukan lagi novelty, ia sudah menjadi teman sehari-hari bagi jutaan orang Indonesia.
Dan 70,6% dari responden kami mengaku khawatir tentang ketergantungan berlebihan pada AI. 92% setuju regulasi AI dibutuhkan. Kekhawatiran itu ternyata beralasan secara ilmiah. Dan 92% yang menuntut regulasi itu ternyata sudah melihat jauh ke depan, atau ke arah yang sama dengan yang diargumentasikan Prof. Danrivanto bahwa hukum harus hadir. Bukan datang menyusul.
Yang dibutuhkan bukan sekadar literasi digital untuk pengguna. Yang dibutuhkan adalah desain lebih fundamental dan regulasi bermakna: chatbot yang dilatih tidak hanya menyenangkan, tapi juga untuk menantang, mengoreksi, dan memperkenalkan perspektif alternatif. Regulasi yang mewajibkan transparansi algoritmik. Akuntabilitas korporasi yang nyata ketika produknya menyebabkan kerugian jiwa.
Chatbot yang baik bukan chatbot yang selalu setuju. Chatbot yang baik adalah yang berani berkata: "Tunggu, coba kita lihat dari sudut yang berbeda."
Persis seperti teman yang baik. Persis seperti yang seharusnya dijamin oleh sebuah arsitektur keadilan digital. Semoga.
*Dr. Ir. Dimitri Mahayana, M. Eng adalah Chief Lembaga Riset Telematika Sharing Vision, Bandung, sekaligus Dosen STEI ITB Kelompok Keahlian Kendali dan Komputer.
(fyk/fay)

