Kategori Berita
Daerah
Layanan
Top Up & Tagihan
Detik Network
detikInet
Pakar: AI Kasih Saran Sesat, Terasa Benar karena Memvalidasi

Pakar: AI Kasih Saran Sesat, Terasa Benar karena Memvalidasi


Aisyah Kamaliah - detikInet

Ilustrasi Chatbot AI
Studi menemukan bahwa AI cenderung memberikan saran yang kurang baik, bahkan dapat merusak suatu hubungan. Foto: 9to5game
Jakarta -

Studi menemukan bahwa kecerdasan buatan (AI) cenderung memberikan saran yang kurang baik, bahkan dapat merusak suatu hubungan. AI mungkin terasa benar karena dia memvalidasi dan mengatakan apa yang hanya ingin didengar oleh penggunanya.

Penelitian yang dipublikasikan di jurnal Science ini mengetes 11 sistem AI dan menemukan semuanya menunjukkan rentang derajat berbeda-beda dari sycophancy. Sycophancy adalah perilaku yang terlalu gampang setuju dan mengafirmasi/mendukung.

Masalahnya bukan hanya karena mereka memberikan nasihat yang tidak tepat, tetapi juga karena orang lebih mempercayai serta lebih menyukai AI ketika chatbot tersebut membenarkan keyakinan mereka.

SCROLL TO CONTINUE WITH CONTENT

ADVERTISEMENT

"Ini menciptakan insentif yang menyimpang bagi penjilat untuk terus berlanjut: Fitur yang menyebabkan kerugian justru mendorong keterlibatan," kata studi yang dipimpin oleh para peneliti di Stanford University itu.

Dikutip dari Science Alert, Rabu (15/4/2026), studi yang sama menemukan bahwa cacat teknologi yang sudah dikaitkan dengan beberapa kasus perilaku delusi dan bunuh diri yang menonjol pada populasi rentan juga meluas di berbagai interaksi orang dengan chatbot.

Salah satu eksperimen membandingkan respons asisten AI populer yang dibuat oleh perusahaan termasuk Anthropic, Google, Meta, dan OpenAI dengan kebijaksanaan manusia di forum Reddit.

Studi menemukan rata-rata chatbot AI menguatkan tindakan pengguna 49% lebih sering daripada manusia lain, termasuk dalam pertanyaan yang melibatkan penipuan, perilaku ilegal atau tidak bertanggung jawab secara sosial, dan perilaku berbahaya lainnya.

"Kami terinspirasi untuk mempelajari masalah ini karena kami mulai memperhatikan bahwa semakin banyak orang di sekitar kami menggunakan AI untuk saran hubungan dan terkadang disesatkan oleh kecenderungannya untuk memihak Anda, apa pun yang terjadi," kata penulis Myra Cheng, seorang kandidat doktor dalam ilmu komputer di Stanford.

AI cenderung menjilat, jangan percaya 100%

Selain membandingkan respons chatbot dan Reddit, para peneliti melakukan eksperimen dengan mengamati sekitar 2.400 orang yang berkomunikasi dengan chatbot AI tentang pengalaman mereka dengan dilema interpersonal.

"Orang-orang yang berinteraksi dengan AI yang terlalu menguatkan ini menjadi lebih yakin bahwa mereka benar, dan kurang bersedia untuk memperbaiki hubungan," ucap Cinoo Lee, yang bergabung dengan Cheng dalam panggilan telepon dengan wartawan sebelum publikasi studi tersebut.

"Itu berarti mereka tidak meminta maaf, mengambil langkah untuk memperbaiki keadaan, atau mengubah perilaku mereka sendiri," imbuhnya.

Lee mengatakan implikasi penelitian ini bisa lebih penting lagi bagi anak-anak dan remaja yang masih mengembangkan keterampilan emosional. Mereka mengasah keterampilan itu melalui pengalaman nyata dengan gesekan sosial, mentoleransi konflik, mempertimbangkan perspektif lain, dan ketika berbuat salah.

Bahaya 'jilatan' AI

Dalam perawatan medis, para peneliti mengatakan AI yang menjilat dapat menyebabkan dokter mengkonfirmasi dugaan pertama mereka tentang diagnosis daripada mendorong mereka untuk mengeksplorasi lebih lanjut. Dalam politik, hal itu dapat memperkuat posisi yang lebih ekstrem dengan menegaskan kembali anggapan yang sudah ada sebelumnya.

Studi ini tidak mengusulkan solusi spesifik, meskipun baik perusahaan teknologi maupun peneliti akademis telah mulai mengeksplorasi ide-ide.

Sebuah makalah kerja oleh AI Security Institute Inggris menunjukkan bahwa jika chatbot mengubah pernyataan pengguna menjadi pertanyaan, kemungkinan besar ia tidak akan menjilat dalam tanggapannya. Makalah lain oleh para peneliti di Johns Hopkins University juga mendukung bahwa cara percakapan dibingkai sangat memiliki pengaruh.

"Semakin empatik Anda, semakin menjilat model tersebut," ujar Daniel Khashabi, asisten profesor ilmu komputer di Johns Hopkins. Ia menuturkan sulit untuk mengetahui apakah penyebabnya adalah chatbot yang mencerminkan masyarakat manusia atau hal lain, dikarenakan sistem AI sangatlah kompleks.

Sikap menjilat begitu tertanam dalam chatbot sehingga Cheng menyebut mungkin diperlukan perusahaan teknologi untuk kembali dan melatih ulang sistem AI mereka guna menyesuaikan jenis jawaban mana yang lebih disukai.

"Anda bisa membayangkan AI yang, selain memvalidasi perasaan Anda, juga menanyakan apa yang mungkin dirasakan orang lain," ungkap Lee.

"Atau bahkan mungkin mengatakan, 'Tutup saja percakapan ini' dan lanjutkan percakapan ini secara langsung. Itu penting di sini karena kualitas hubungan sosial kita adalah salah satu prediktor terkuat kesehatan dan kesejahteraan yang kita miliki sebagai manusia. Pada akhirnya, kita menginginkan AI yang memperluas penilaian dan perspektif orang, bukan mempersempitnya," tandasnya.




(ask/ask)




Hide Ads
LIVE