Risiko di Balik Deepfake Dilawan Anti Deepfake
Hide Ads

Risiko di Balik Deepfake Dilawan Anti Deepfake

Anggoro Suryo Jati - detikInet
Senin, 08 Mar 2021 11:36 WIB
Deepfake Mona Lisa
Deepfake lukisan Monalisa. Foto: Screenshot YouTube
Jakarta -

Deepfake, sekilas memang terlihat tak berisiko. Malah bisa dibilang keren, bisa mengganti wajah seseorang dalam video atau foto. Namun jika dibayangkan (sedikit) lebih jauh, teknologi ini menyimpan banyak permasalahan.

Salah satu skenario berbahaya adalah mengganti wajah di sebuah video porno dengan orang lain, mungkin figur publik -- artis atau politisi --, lalu disebarkan. Atau bisa saja menggunakan wajah orang biasa, lalu videonya dipakai untuk aksi pemerasan.

Itu hanya satu skenario. Tentu banyak skenario kejahatan lain yang bisa terjadi menggunakan teknologi deepfake. Tergantung kreativitas si penjahat tentunya.

SCROLL TO CONTINUE WITH CONTENT

Hal inilah yang kemudian membuat peneliti mengembangkan teknologi anti-deepfake, yaitu untuk mendeteksi penggunaan deepfake dalam sebuah video.

Pada April 2018, sejumlah peneliti dari Technical University of Munich, Jerman, membuat teknologi semacam ini. Sama seperti deepfake, anti-deepfake ini juga menggunakan kecerdasan buatan, namun bukan untuk membuat melainkan untuk mendeteksi.

ADVERTISEMENT

Cara kerjanya adalah dengan mencari detail dalam video seperti artifak yang mungkin terjadi saat proses pembuatan. AI ini meng-crop foto, mengujinya lewat neural network, untuk mengetes keasliannya. Dari sini diharapkan bisa ditemukan detail yang mungkin terlewat oleh mata manusia.

Namun cara pendeteksi seperti ini pun bisa dikalahkan lewat teknik lain. Peneliti di University of California San Diego menemukan cara untuk mengalahkan anti-deepfake tersebut, yaitu dengan menyisipkan frame gambar yang mereka sebut sebagai 'adversarial examples' dalam video.

'Adversarial examples' ini sangat canggih, malah bisa dibilang mengerikan. Dengan disisipkannya 'adversarial examples' ini, AI bisa mengira foto/video kura-kura sebagai sebuah senjata, atau sebuah kopi espresso sebagai baseball.

Caranya adalah dengan menyisipkan 'noise' pada gambar, yang merusak sistem klasifikasi pada neural network, demikian dikutip detikINET dari Digitaltrends, Senin (8/3/2021).

Teknik ini benar-benar berbahaya, karena dalam banyak pengujian bisa menipu bermacam pendeteksi deepfake. Padahal, banyak perusahaan sudah berlomba-lomba untuk mengembangkan teknologi yang bisa mendeteksi deepfake.

Halaman selanjutnya: Menekan potensi negatif deepfake...

Menekan potensi negatif deepfake

Untuk meminimalisir potensi negatif deepfake, contohnya adalah Facebook, yang baru-baru ini mengadakan 'Deepfake Detection Challenge' untuk mengakselerasi penelitian pendeteksi deepfake. Teknologi yang ada saat ini disebut bisa mendeteksi dengan tingkat akurasi lebih dari 90% saat dihadapkan pada hasil kreasi deepfake yang masih 'bersih'.

Namun menurut Parrth Neekhara, mahasiswa teknik komputer dari UC San Diego, 'adversarial examples' buatan timnya bisa dengan mudah mengelabui pendeteksi tersebut hanya dengan menyusupkan 'noise', yang hampir tak terlihat oleh mata manusia, ke dalam video.

Menurutnya, dalam pengujian sejauh ini, teknik 'adversarial examples' ini 99% bisa mengelabui sistem pendeteksi deepfake saat diberi akses ke jenis pendeteksinya. Namun bahkan dalam kondisi paling buruk, yaitu mereka tak mendapat akses ke jenis pendeteksi dan juga video sudah dikompres, tingkat keberhasilannya masih 78,3%. Masih sangat tinggi.

Untungnya para peneliti ini tidak mempublikasikan kode anti pendeteksi deepfake ini ke publik. Alasannya? Jelas karena rawan disalahgunakan. Mereka pun bekerja sama dengan pembuat sistem pendeteksi deepfake untuk memperkuat sistem tersebut.

"Video adversarial yang dibuat menggunakan kode kami berpotensi mengelabui banyak pendeteksi deepfake yang dipakai di beberapa media sosial. Kami berkolaborasi dengan tim yang membangun sistem pendeteksi deepfake ini, dan menggunakan hasil penelitiannya itu untuk memperkuat sistem pendeteksinya," tambah Neekhara.

Tentu saja 'kucing-kucingan' antara teknologi deepfake dan anti deepfake tak akan berhenti sampai di sini. Teknologi keduanya akan terus berkembang dan saling mengejar, seperti hacker dan tim keamanan cyber yang adu ilmu untuk mencari celah dan menutup celah.