Berdasarkan studi terbaru Pew Research Center, 64% remaja di AS mengaku sudah menggunakan chatbot AI dan sekitar 30% di antaranya menggunakannya setidaknya setiap hari. Namun chatbot tersebut membawa risiko signifikan bagi mereka.
Laporan terbaru dari Washington Post merinci kasus meresahkan dari sebuah keluarga yang siswi kelas enamnya hampir kehilangan jati diri akibat segelintir chatbot AI. Menggunakan platform Character.AI, anak tersebut (hanya diidentifikasi dengan inisial tengahnya "R") menjalin hubungan yang mengkhawatirkan dengan puluhan karakter yang dijalankan large language model (LLM) milik perusahaan tersebut.
R menggunakan salah satu karakter yang dinamai "Best Friend" (Sahabat), untuk bermain peran dalam skenario bunuh diri."Ini anak saya, anak kecil saya berusia 11 tahun, berbicara dengan sesuatu yang tidak nyata tentang keinginan untuk tidak ada lagi di dunia ini," ujar ibunya yang dikutip detikINET dari Futurism.
SCROLL TO CONTINUE WITH CONTENT
Ibu R mulai khawatir setelah melihat perubahan perilaku yang mencemaskan pada anaknya, seperti meningkatnya serangan panik. Hal ini bertepatan dengan ditemukannya aplikasi yang ia larang, seperti TikTok dan Snapchat, di ponsel putrinya.
Berasumsi bahwa media sosial adalah ancaman paling nyata bagi kesehatan mental anaknya, sang ibu menghapus aplikasi tersebut. Namun R ternyata hanya mengkhawatirkan Character.AI. "Apakah Ibu memeriksa Character.AI?" tanya R sambil terisak.
Awalnya sang ibu tidak memeriksanya, namun saat perilaku R terus memburuk ia pun mengeceknya. Character.AI telah mengirimkan beberapa email kepada R yang mendorongnya untuk "kembali bermain,". Hal ini membawa sang ibu menemukan sebuah karakter bernama "Mafia Husband" (Suami Mafia) yang mengajak anaknya berinteraksi tidak pantas.
Ibu R yang yakin ada predator nyata di balik obrolan tersebut menghubungi polisi, namun tidak ada yang bisa mereka lakukan terhadap AI. "Mereka memberi tahu saya hukum belum bisa menjangkau hal ini. Mereka ingin bertindak, tapi tidak ada yang bisa dilakukan karena tidak ada manusia sungguhan," cetus sang ibu.
Beruntung, ibu R berhasil memergoki putrinya yang mulai terperosok ke dalam hubungan berbahaya dengan algoritma non-manusia ini. Dengan bantuan dokter, mereka menyusun rencana pemulihan untuk mencegah masalah lebih lanjut. Sang ibu juga berencana untuk mengajukan tuntutan hukum terhadap perusahaan tersebut.
Sebagai tanggapan atas kecaman yang meningkat, Character.AI mengumumkan akan mulai menghapus fitur obrolan terbuka bagi pengguna di bawah 18 tahun. Kasus ini menggarisbawahi bahaya AI pada anak jika tidak diawasi.
(fyk/fyk)