Film aksi legendaris Terminator berkisah soal AI berperang dengan manusia. Kini dalam perang Iran, manusia sudah berhadapan dengan AI.
Film laga yang membuat Arnold Schwarzenegger terkenal itu berkisah soal kecerdasan buatan bernama Skynet yang lepas kendali lalu berperang menghabisi umat manusia. Dalam perang Iran sekarang ini, AI juga sudah mengubah perang modern.
Dilansir France24, Rabu (25/3/2026) Amerika dan Israel memakai AI untuk sistem pertahanan dalam taraf yang belum pernah dilakukan sebelumnya. Amerika menunjukkan data yang mengerikan dalam Perang Iran ini terkait AI untuk kebutuhan perang.
SCROLL TO CONTINUE WITH CONTENT
Kepala Central Command (Centcom) AS, Admiral Brad Cooper memuji penggunaan AI canggih untuk perang dengan Iran. Dalam operasi Epic Fury, 1.000 target di Iran dibom dalam 24 jam pertama. Hingga 11 Maret 2026, sudah ada 5.500 titik dibom di Iran. Semua serangan ini dipandu dengan kecerdasan buatan.
"Manusia akan selalu membuat keputusan akhir apa yang ditembak dan apa yang tidak ditembak. Tapi AI yang canggih membantu proses yang tadinya berjam-jam atau berhari-hari menjadi tinggal hitungan detik saja," kata Kepala Central Command (Centcom) Admiral Brad Cooper.
Peran Iran kali ini tidak lepas dari drama perusahaan Anthropic yang menolak model AI mereka yaitu Claude digunakan oleh Pentagon untuk persenjataan otonom dan pengawasan massal terhadap masyarakat. Menteri Perang AS Pete Hegstesh akhirnya mencekal Anthropic, namun AI tetap dipakai untuk Perang Iran.
Militer AS juga memakai Maven Smart System dari perusahaan Palantir untuk Perang Iran. AI ini dipakai untuk apa yang disebut 'kill chain' alias rantai bunuh.
"Ini proses yang mencakup survei, pengumpulan intelijen, seleksi dan pada akhirnya menyerang target," kata Kepala Ilmuwan AI di AI Now Institute, Dr Heidy Khlaaf.
AI kata Khlaaf membantu membuat perang menjadi lebih efektif dan efisien. Teknologi seperti Maven, Anthropic dan Palantir membuat unit yang dioperasikan 20 orang, setara dengan kerja 2.000 orang. AI membantu membuat rekomendasi militer dan butuh pengawasan. Namun Khlaaf khawatir, pengawasan oleh manusia ini basa-basi saja.
"Ada bias otomasi, kecenderungan manusia untuk setuju dengan saran yang dibuat oleh sistem otomasi seperti AI. Pengawasan pada praktiknya cuma pura-pura apalagi di ruang militer dimana bias otomasi adalah yang terburuk. Manusia cuma jadi cap stempel," kata Khlaaf.
Sistem senjata otonom punya kemampuan untuk memilih target yang menyerang tanpa pengawasan manusia. Bagi orang awam, bayangkanlah AI pada senjata otonom ini seperti robot Terminator di dalam film. Tidak jelas sejauh mana Pentagon mendorong penggunaan AI tanpa batas yang punya kemampuan meluncurkan serangan secara mandiri.
Di sisi lain, Israel juga memakai sistem AI bernama Habsora untuk membuat rekomendasi target serangan di Gaza. Yang jadi masalah, tingkat akurasi AI sebenarnya belum tinggi. Generatif AI kata Khlaaf punya akurasi paling rendah 50%.
"Satu model mesti menganalisi miliaran data. Bagaimana kamu tahu erornya datang dari mana," kata Khlaaf.
(fay/rns)

