5 Risiko Bahaya Kecerdasan Buatan - Halaman 3

Ancaman AI

5 Risiko Bahaya Kecerdasan Buatan

Anggoro Suryo Jati - detikInet
Sabtu, 24 Apr 2021 19:11 WIB
Ilustrasi AI
Foto: Istimewa

4. Otomatisasi senjata

Mungkin ada yang menganggap pernyataan Musk soal AI lebih bahaya dari nuklir itu berlebihan. Namun, coba bayangkan jika nanti ada sistem persenjataan yang dikontrol oleh AI, dan AI itu memutuskan untuk meluncurkan senjata nuklir, atau mungkin senjata biologis. Bagaimana?

Atau mungkin pihak musuh bisa memanipulasi data untuk membalikkan misil yang dikontrol oleh AI untuk menyerang pengirimnya. Hal ini tentu mungkin terjadi, dan akan sangat berbahaya.

Untuk itulah, lebih dari 30 ribu peneliti AI dan robotik, serta pihak lainnya, menandatangani surat terbuka terhadap subjek tersebut pada 2015 lalu.

"Pertanyaan utama untuk manusia hari ini adalah apakah kita akan memulai pembuatan senjata berbasis AI secara global atau melindunginya agar tidak dimulai," tulis mereka.

Jika ada kekuatan militer utama yang memulai pengembangan senjata berbasis AI, maka perlombaan pengembangan senjata AI tak bisa dielakkan lagi. Dan hal ini sudah terjadi, yaitu saat militer AS mengajukan anggaran belanja 2020 sebesar USD 718 miliar, di mana USD 1 miliar di antaranya akan dipakai untuk pengembangan AI dan machine learning.

(asj/fay)