Menekan potensi negatif deepfake
Untuk meminimalisir potensi negatif deepfake, contohnya adalah Facebook, yang baru-baru ini mengadakan 'Deepfake Detection Challenge' untuk mengakselerasi penelitian pendeteksi deepfake. Teknologi yang ada saat ini disebut bisa mendeteksi dengan tingkat akurasi lebih dari 90% saat dihadapkan pada hasil kreasi deepfake yang masih 'bersih'.
Namun menurut Parrth Neekhara, mahasiswa teknik komputer dari UC San Diego, 'adversarial examples' buatan timnya bisa dengan mudah mengelabui pendeteksi tersebut hanya dengan menyusupkan 'noise', yang hampir tak terlihat oleh mata manusia, ke dalam video.
SCROLL TO CONTINUE WITH CONTENT
Menurutnya, dalam pengujian sejauh ini, teknik 'adversarial examples' ini 99% bisa mengelabui sistem pendeteksi deepfake saat diberi akses ke jenis pendeteksinya. Namun bahkan dalam kondisi paling buruk, yaitu mereka tak mendapat akses ke jenis pendeteksi dan juga video sudah dikompres, tingkat keberhasilannya masih 78,3%. Masih sangat tinggi.
Untungnya para peneliti ini tidak mempublikasikan kode anti pendeteksi deepfake ini ke publik. Alasannya? Jelas karena rawan disalahgunakan. Mereka pun bekerja sama dengan pembuat sistem pendeteksi deepfake untuk memperkuat sistem tersebut.
"Video adversarial yang dibuat menggunakan kode kami berpotensi mengelabui banyak pendeteksi deepfake yang dipakai di beberapa media sosial. Kami berkolaborasi dengan tim yang membangun sistem pendeteksi deepfake ini, dan menggunakan hasil penelitiannya itu untuk memperkuat sistem pendeteksinya," tambah Neekhara.
Tentu saja 'kucing-kucingan' antara teknologi deepfake dan anti deepfake tak akan berhenti sampai di sini. Teknologi keduanya akan terus berkembang dan saling mengejar, seperti hacker dan tim keamanan cyber yang adu ilmu untuk mencari celah dan menutup celah.