Risiko di Balik Deepfake Dilawan Anti Deepfake

Risiko di Balik Deepfake Dilawan Anti Deepfake

Anggoro Suryo Jati - detikInet
Senin, 08 Mar 2021 11:36 WIB
Deepfake Mona Lisa
Deepfake lukisan Monalisa. Foto: Screenshot YouTube
Jakarta -

Deepfake, sekilas memang terlihat tak berisiko. Malah bisa dibilang keren, bisa mengganti wajah seseorang dalam video atau foto. Namun jika dibayangkan (sedikit) lebih jauh, teknologi ini menyimpan banyak permasalahan.

Salah satu skenario berbahaya adalah mengganti wajah di sebuah video porno dengan orang lain, mungkin figur publik -- artis atau politisi --, lalu disebarkan. Atau bisa saja menggunakan wajah orang biasa, lalu videonya dipakai untuk aksi pemerasan.

Itu hanya satu skenario. Tentu banyak skenario kejahatan lain yang bisa terjadi menggunakan teknologi deepfake. Tergantung kreativitas si penjahat tentunya.

Hal inilah yang kemudian membuat peneliti mengembangkan teknologi anti-deepfake, yaitu untuk mendeteksi penggunaan deepfake dalam sebuah video.

Pada April 2018, sejumlah peneliti dari Technical University of Munich, Jerman, membuat teknologi semacam ini. Sama seperti deepfake, anti-deepfake ini juga menggunakan kecerdasan buatan, namun bukan untuk membuat melainkan untuk mendeteksi.

Cara kerjanya adalah dengan mencari detail dalam video seperti artifak yang mungkin terjadi saat proses pembuatan. AI ini meng-crop foto, mengujinya lewat neural network, untuk mengetes keasliannya. Dari sini diharapkan bisa ditemukan detail yang mungkin terlewat oleh mata manusia.

Namun cara pendeteksi seperti ini pun bisa dikalahkan lewat teknik lain. Peneliti di University of California San Diego menemukan cara untuk mengalahkan anti-deepfake tersebut, yaitu dengan menyisipkan frame gambar yang mereka sebut sebagai 'adversarial examples' dalam video.

'Adversarial examples' ini sangat canggih, malah bisa dibilang mengerikan. Dengan disisipkannya 'adversarial examples' ini, AI bisa mengira foto/video kura-kura sebagai sebuah senjata, atau sebuah kopi espresso sebagai baseball.

Caranya adalah dengan menyisipkan 'noise' pada gambar, yang merusak sistem klasifikasi pada neural network, demikian dikutip detikINET dari Digitaltrends, Senin (8/3/2021).

Teknik ini benar-benar berbahaya, karena dalam banyak pengujian bisa menipu bermacam pendeteksi deepfake. Padahal, banyak perusahaan sudah berlomba-lomba untuk mengembangkan teknologi yang bisa mendeteksi deepfake.

Halaman selanjutnya: Menekan potensi negatif deepfake...