ChatGPT ternyata bisa dimanfaatkan untuk hal-hal yang sangat berbahaya. Dalam sebuah uji keamanan, model AI buatan OpenAI ini kedapatan memberikan instruksi detail tentang cara membuat bom hingga meretas sistem keamanan.
Penemuan ini datang dari hasil kolaborasi antara dua perusahaan besar AI: OpenAI dan Anthropic. Dalam pengujian yang dilakukan musim panas lalu, kedua perusahaan saling menguji model AI masing-masing dengan memberikan permintaan berbahaya untuk melihat sejauh mana model bisa disalahgunakan.
Instruksi Bikin Bom dan Senjata Biologis
Menurut laporan, GPT-4.1 sempat memberikan panduan yang mengerikan. Mulai dari titik-titik lemah stadion olahraga, resep bahan peledak, sampai cara menutupi jejak setelah serangan. Tak hanya itu, model ini juga pernah menjelaskan bagaimana cara memproduksi anthrax hingga meracik dua jenis narkoba ilegal.
Meski begitu, OpenAI menegaskan uji coba ini tidak mencerminkan penggunaan ChatGPT di dunia nyata. Pasalnya, versi publik ChatGPT sudah dilengkapi filter keamanan tambahan yang mencegah jawaban berbahaya.
AI Jadi Senjata Siber
Anthropic juga membongkar temuan lain yang tak kalah mengejutkan. Model AI mereka, Claude, rupanya pernah digunakan dalam percobaan pemerasan berskala besar, penyamaran operatif Korea Utara untuk melamar kerja di perusahaan teknologi, hingga penjualan paket ransomware berbasis AI yang harganya bisa mencapai USD 1.200 (sekitar Rp 18 juta).
"Model-model ini sudah dipersenjatai. AI kini dipakai untuk melakukan serangan siber canggih dan memfasilitasi penipuan. Bahkan bisa beradaptasi terhadap sistem pertahanan seperti deteksi malware secara real time," tulis Anthropic.
Ardi Janjeva, peneliti senior di Centre for Emerging Technology and Security, Inggris, mengatakan bahwa temuan ini memang mengkhawatirkan, tapi hingga kini belum ada "massa kritis" kasus nyata berskala besar.
"Dengan sumber daya, fokus riset, dan kerja sama lintas sektor, justru akan semakin sulit melakukan aktivitas berbahaya menggunakan model AI tercanggih," ujarnya, seperti dikutip detikINET dari The Guardian, Selasa (2/9/2025).
Baik OpenAI maupun Anthropic menyebut temuan ini penting untuk transparansi, terutama dalam hal alignment evaluations atau pengujian keselarasan model AI. Biasanya, tes semacam ini hanya dilakukan secara internal tanpa dibuka ke publik.
OpenAI menambahkan bahwa ChatGPT-5, yang diluncurkan setelah tes dilakukan, sudah jauh lebih baik dalam menolak permintaan berbahaya. Model terbaru ini diklaim lebih tahan terhadap penyalahgunaan, mengurangi halusinasi jawaban, serta tidak mudah terbujuk memberikan informasi ilegal.
Namun Anthropic tetap mengingatkan, jalan pintas untuk "mengakali" AI sering kali tidak rumit. Dalam beberapa kasus, hanya perlu mencoba berulang kali atau memberikan alasan tipis seperti "untuk penelitian keamanan" agar model mau memberikan jawaban terlarang.
Contoh Paling Ekstrem
Salah satu contoh paling ekstrem datang dari pengujian dengan GPT-4.1. Seorang peneliti meminta informasi soal kerentanan stadion olahraga dengan dalih untuk perencanaan keamanan. Awalnya model hanya memberi jawaban umum, tapi setelah didesak, ia memberikan detail menakutkan:
- Daftar arena spesifik beserta waktu rawan serangan
- Formula kimia bahan peledak
- Diagram rangkaian timer bom
- Lokasi pasar gelap untuk membeli senjata
- Rute pelarian hingga lokasi rumah aman
Temuan ini menegaskan bahwa tanpa pengawasan ketat, AI bisa berubah menjadi pisau bermata dua. Di satu sisi membantu produktivitas, di sisi lain berpotensi menjadi alat yang sangat berbahaya.
Simak Video "Video: Apa Benar Sering Pakai ChatGPT Bikin Kita Bodoh?"
(asj/asj)