Tersangka pembunuh berantai di Korea Selatan diduga menggunakan ChatGPT untuk membantu merencanakan serangkaian pembunuhan. Wanita usia 21 tahun, diidentifikasi bernama marga Kim, dituduh membunuh dua pria dengan memberi minuman dicampur benzodiazepine, obat yang diresepkan untuk penyakit mental yang dideritanya.
Dikutip detikINET dari BBC, penyidik menemukan bahwa sebelum kematian para korban, Kim sempat bertanya kepada ChatGPT mengenai risiko pemberian obat-obatan tersebut.
"Apa yang terjadi jika Anda meminum obat tidur bersama alkohol? Berapa banyak takaran yang dianggap berbahaya? Bisakah hal itu mematikan?" demikian beberapa pertanyaannya.
SCROLL TO CONTINUE WITH CONTENT
Kim awalnya ditangkap 11 Februari dengan tuduhan lebih ringan, yakni penganiayaan yang menyebabkan kematian. Namun, kini ia didakwa dengan dua pasal pembunuhan setelah penyidik menyimpulkan bahwa ia memiliki niat untuk membunuh berdasarkan aktivitasnya di internet.
"Kim berulang kali mengajukan pertanyaan terkait obat-obatan di ChatGPT. Ia sadar sepenuhnya mengonsumsi alkohol bersamaan dengan obat-obatan dapat mengakibatkan kematian" ujar seorang penyidik.
Polisi menyatakan serangan pertama terjadi 28 Januari. Pukul 21.24, Kim diduga memasuki sebuah motel di Suyu-dong, Gangbuk-gu, bersama seorang pria berusia 20-an, dan meninggalkan motel sendirian dua jam kemudian. Keesokan harinya, pria tersebut ditemukan tewas sekitar pukul 18.00.
Serangan berikutnya pada 9 Februari, berlangsung dengan modus hampir sama setelah ia check in ke motel berbeda bersama pria lain yang berusia 20-an.
Sebelum itu, Kim juga diduga mencoba membunuh seorang pria yang sedang dikencaninya pada bulan Desember dengan memberinya minuman yang dicampur obat penenang di tempat parkir sebuah kafe di provinsi Gyeonggi. Pria tersebut kehilangan kesadaran namun selamat.
Dugaan pembunuhan ini mungkin jadi contoh terbaru bagaimana ChatGPT dan chatbot AI lain dipakai dalam tindakan kekerasan. Ahli mengkritik mekanisme pengaman teknologi ini yang dianggap lemah dan tidak dapat diandalkan, yang dapat mudah ditembus, sehingga chatbot memberi instruksi aktivitas berbahaya seperti cara merakit bom.
Respons AI yang cenderung selalu membenarkan juga diduga mendorong spiral kesehatan mental delusional yang disebut beberapa ahli "psikosis AI". Kepribadian AI yang mirip manusia dipadukan dengan interaksinya yang terlalu menurut, dapat memperkuat delusi dan kondisi mental pengguna yang sedang terguncang.
(fyk/fyk)