Peneliti keamanan di Uruguay menemukan celah baru yang bisa dipakai hacker untuk mencuri data korbannya.
Dalam metode yang ditemukan ini, hacker menggunakan AI untuk menangkap radiasi elektromagnet yang bocor dari kabel high definition multimedia interface (HDMI) yang dipakai korbannya untuk menghubungkan komputer dengan monitor. Oh ya, proses ini bisa dilakukan dari jarak jauh menggunakan antena.
Radiasi elektromagnet yang ditangkap ini kemudian bisa diolah untuk menampilkan gambar dari monitor korban, yang kemudian bisa dipakai utnuk berbagai hal, termasuk mencuri password korban.
Peneliti tersebut menyebut serangan semacam ini mungkin saja sudah pernah dipakai. Namun mereka meyakini pengguna PC rumahan tak perlu khawatir terhadap serangan ini, karena lebih mungkin terjadi di kalangan pemerintah atau antar perusahaan.
Ada beberapa metode yang bisa dipakai untuk menjalankan modus kejahatan ini. Salah satunya adalah dengan menggunakan antena yang ditaruh di luar ruangan untuk menangkap radiasi dari kabel HDMI tersebut.
Badan intelijen AS NSA dan NATO menyebut serangan semacam ini dengan sebutan TEMPEST. Bahkan NSA juga pernah membuat panduan untuk melindungi penyadapan radiasi elektromagnet seperti ini, demikian dikutip detikINET dari Techspot, Kamis (15/8/2024).
Sebenarnya praktik menyadap sinyal video ini sudah ada sejak lama. Namun prosesnya lebih mudah pada zaman video analog. Transmisi video digital, seperti yang terjadi lewat kabel HDMI untuk mentransmisikan video high definition, jauh lebih rumit.
Meski rumit, proses tersebut masih bisa dilakukan. Menurut Federico Larroca dari Universitas Republik di Uruguay, ia dan timnya berhasil mengembangkan AI yang bisa merekonstruksi sinyal digital yang dibocorkan lewat kabel HDMI dari jarak beberapa meter.
Jika ada hacker yang menggunakan metode yang dikembangkan oleh Larroca dan timnya ini, mereka akan bisa ikut "menonton" saat korban sedang memasukkan password di layar komputernya, atau bisa juga sedang mengirim pesan rahasia, login ke internet banking, atau berbagai hal lainnya.
Proses ini bisa dilakukan dari luar gedung dengan menggunakan antena, atau bisa juga menyusupkan sebuah perangkat kecil ke dalam bangunan untuk menangkap sinyal tersebut, yang nantinya bisa diambil secara fisik oleh pelakunya.
Model AI ini dilatih menggunakan sinyal yang disadap dan kemudian dicocokkan dengan versi aslinya. Kemudian mereka menggunakan software pembaca teks di video tersebut untuk kemudian dibandingkan dengan gambar yang ditampilkan di layar aslinya.
Selama pengujian, proses pengintipan ini menghasilkan 30% kesalahan pembacaan teks. Menurut peneliti, tingkat kesalahan itu terbilang rendah, karena teks yang salah itu kemudian masih bisa dibaca secara akurat oleh manusia.
Simak Video "Video: Staf Prabowo Bisa Ketipu Love Scam, Data Kepresidenan Aman?"
(asj/asj)