Masih ingat dengan film Terminator, dimana robot jadi pemburu manusia? Kejadian ini sejatinya bukan cuma mimpi, namun ditakutkan suatu saat akan benar-benar terjadi.
Untuk itu, sedari awal, ilmuwan dan pelaku teknologi ramai-ramai menolak pengembangan mesin penghancur otomatis atau yang juga kerap disebut sebagai robot pembunuh (killer robot).
Ilmuwan sekaliber Stephen Hawking, pendiri Apple Steve Wozniak, sampai CEO Tesla yang dijuluki Iron Man di dunia nyata Elon Musk, telah menandatangani dukungan terhadap surat terbuka yang menolak pengembangan robot pembunuh itu.
SCROLL TO CONTINUE WITH CONTENT
Surat terbuka penolakan akan kehadiran robot pembunuh itu dipresentasikan pada acara International Joint Conference on Artificial Intelligence di Buenos Aires, Argentina.
Memang penolakan itu belum sampai pada taraf mesin pembunuh yang sudah berwujud seperti manusia seperti di film Terminator. Melainkan merujuk pada senjata otomatis yang dapat membidik atau menembak tanpa ada kontrol manusia.
Pihak yang pro boleh saja berargumen jika senjata-senjata otomatis ini hanya akan digunakan pada medan tempur secara 'legal'. Namun bagaimana jika secara sistem robot pembunuh itu punya celah (vulnerability) yang bisa diretas teroris? Jika begini, tentu saja ancamannya lebih bahaya lagi, banyak orang-orang tak bersalah bisa jadi korban.
"Tidak seperti senjata nuklir, (senjata otomatis) ini tidak memerlukan biaya mahal atau sulit mendapatkan bahan baku untuk pengembangannya, sehingga mereka akan tersebar di mana-mana dan menjadi (alat tempur) murah untuk semua kekuatan militer yang memproduksi secara massal," demikian isi surat penolakan tersebut.
"Ini hanya masalah waktu sampai mereka (senjata otomatis-red.) muncul di pasar gelap dan di tangan teroris, diktator yang ingin lebih mengontrol rakyatnya, panglima perang yang ingin melakukan pembersihan etnis dan lainnya. Senjata otomatis lebih ideal untuk melakukan tugas-tugas seperti pembunuhan, menggoyang stabilitas negara, menekan populasi dan menghilangkan (membantai-red.) kelompok etnis tertentu," lanjutnya.
Surat penolakan ini diakhiri dengan peringatan bahwa pengembangan senjata otomatis dapat menodai perkembangan kecerdasan buatan (aritificial intelligence) itu sendiri serta bisa memicu reaksi publik secara masif. Untuk itu, PBB pun didesak untuk mengambil tindakan dengan melarang pengembangan robot-robot pembunuh sebelum terlambat.
(ash/fyk)