5 Risiko Bahaya Kecerdasan Buatan
Hide Ads

Ancaman AI

5 Risiko Bahaya Kecerdasan Buatan

Anggoro Suryo Jati - detikInet
Sabtu, 24 Apr 2021 19:11 WIB
Ilustrasi AI
Foto: Istimewa
Jakarta -

Kecerdasan buatan atau artificial intelligence (AI) digadang-gadang akan menjadi teknologi kunci di masa depan. Namun, banyak yang menganggap ada bahaya yang tersimpan dari teknologi ini.

Salah satunya bos Tesla dan SpaceX Elon Musk, yang menganggap AI lebih bahaya ketimbang nuklir. Ia mengaku mengeluarkan pernyataan itu karena sangat dekat dengan pengembangan teknologi AI.

"Saya sangat dekat dengan teknologi AI yang canggih, dan ini sangat membuat saya takut. Teknologi ini sangat jauh dari yang diketahui banyak orang, juga tingkat perkembangannya yang eksponensial," ujar Musk.

SCROLL TO CONTINUE WITH CONTENT

Jadi, apa saja sih bahaya yang muncul dari kecerdasan buatan? Berikut adalah daftarnya, seperti dikutip detikINET dari Builtin, Sabtu (24/4/2021)

1. Pengangguran meningkat

ADVERTISEMENT

Ini adalah bahaya yang banyak menjadi perhatian orang. Yaitu munculnya pengangguran akibat lapangan pekerjaan yang diisi oleh kecerdasan buatan, atau tepatnya otomatisasi.

Berdasarkan penelitian Brookings Institution 2019, ada 36 juta orang yang pekerjaannya rawan digantikan oleh otomatisasi. Lalu setidaknya ada 70% dari pekerjaan mereka, dari mulai penjualan, analisis pasar, sampai pekerjaan di gudang, bisa dilakukan oleh AI.

Meskipun AI juga disebut bisa menciptakan lapangan pekerjaan baru, John C. Havens berpendapat kalau lapangan pekerjaan yang diciptakan tak bisa menutup lapangan pekerjaan yang dihilangkan oleh AI. Setidaknya begitulah pemikiran dari penulis buku Heartificial Intelligence: Embracing Humanity and Maximizing Machines.

Menurut Havens, ia pernah mewawancarai seorang bos dari perusahaan konsultan hukum soal machine learning. Saat itu ia ingin mempekerjakan lebih banyak orang, namun ia juga diwajibkan untuk mencapai hasil tertentu oleh pemegang sahamnya.

Sampai ia akhirnya menemukan sebuah software bernilai USD 200 ribu yang bisa menggantikan posisi 10 orang, dengan gaji masing-masing USD 100 ribu. Artinya dengan menggunakan software itu ia bisa menghemat USD 800 ribu.

Tak cuma itu, tingkat produktivitas dengan software itu meningkat 70%, dengan tingkat kesalahan hanya 5%. Dari sisi pemegang saham, hal itu tentu sangat menguntungkan.

Halaman selanjutnya: pelanggaran privasi dan picu kesenjangan sosial...

2. Pelanggaran privasi

Dalam makalah berjudul 'The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation' yang dipublikasikan pada Februari 2018, 26 peneliti dari 14 institusi berbagai sektor menemukan sejumlah bahaya yang bisa ditimbulkan oleh AI dalam waktu kurang dari lima tahun.

'Malicious use of AI', begitu judul laporan berjumlah 100 halaman, yang menjelaskan bagaimana AI bisa mengancam keamanan digital, yang dengan AI yang dilatih untuk melakukan tindak kriminal, meretas, atau melakukan social engineering terhadap korban, dan lain sebagainya.

Begitu juga soal privasi. Contoh terdekat adalah langkah pemerintah China untuk memanfaatkan teknologi pengenal wajah untuk mendeteksi pergerakan warganya, baik itu di kantor, sekolah, ataupun berbagai tempat publik lainnya.

3. Deepfake

Deepfake pun adalah salah satu produk hasil AI, yaitu dengan memanfaatkan AI untuk mengubah wajah dan suara dalam sebuah video. Pada awal kemunculan deepfake videonya masih mudah dinilai keasliannya.

Namun kini teknologi deepfake sudah semakin canggih dan sulit membedakan mana video yang hasil olahan deepfake atau video asli. Ke depannya, tentu AI untuk pengolahan deepfake ini bakal semakin canggih lagi.

3. Bias algoritma dan kesenjangan sosial

AI pun bisa punya bias terhadap hal tertentu. Pasalnya, AI dikembangkan oleh manusia, dan manusia tentunya bisa bias terhadap suatu hal.

Hal ini diutarakan Profesor Ilmu Komputer dari Universitas Princeton Olga Russakovsky, yang menyebut bias AI ini tak terbatas pada gender dan suku bangsa.

"Peneliti AI kebanyakan adalah laki-laki, yang datang dari demografis suku bangsa tertentu, yang juga tumbuh di area sosial ekonomi tinggi, dan kebanyakan orang-orang tanpa disabilitas. Kami kebanyakan homogen, yang menjadi tantangan untuk berpikir secara luas terhadap masalah di dunia," ujar Russakovsky.

Hal yang sama juga dikatakan oleh peneliti Google bernama Timnit Gebru. Ia menyebut sumber dari bias adalah sosial, bukan teknologi. Ia pun menyebut ilmuwan, seperti dirinya, adalah manusia yang paling berbahaya di dunia.

"Karena kami punya ilusi atas objektivitas," ujarnya. Padahal menurutnya ilmuwan harus bisa mengerti dinamika sosial dunia, dan karena perubahaan radikal di dunia berada pada level sosial.

Halaman selanjutnya: otomatisasi senjata...

4. Otomatisasi senjata

Mungkin ada yang menganggap pernyataan Musk soal AI lebih bahaya dari nuklir itu berlebihan. Namun, coba bayangkan jika nanti ada sistem persenjataan yang dikontrol oleh AI, dan AI itu memutuskan untuk meluncurkan senjata nuklir, atau mungkin senjata biologis. Bagaimana?

Atau mungkin pihak musuh bisa memanipulasi data untuk membalikkan misil yang dikontrol oleh AI untuk menyerang pengirimnya. Hal ini tentu mungkin terjadi, dan akan sangat berbahaya.

Untuk itulah, lebih dari 30 ribu peneliti AI dan robotik, serta pihak lainnya, menandatangani surat terbuka terhadap subjek tersebut pada 2015 lalu.

"Pertanyaan utama untuk manusia hari ini adalah apakah kita akan memulai pembuatan senjata berbasis AI secara global atau melindunginya agar tidak dimulai," tulis mereka.

Jika ada kekuatan militer utama yang memulai pengembangan senjata berbasis AI, maka perlombaan pengembangan senjata AI tak bisa dielakkan lagi. Dan hal ini sudah terjadi, yaitu saat militer AS mengajukan anggaran belanja 2020 sebesar USD 718 miliar, di mana USD 1 miliar di antaranya akan dipakai untuk pengembangan AI dan machine learning.

Halaman 3 dari 3
(asj/fay)