Ini Cara Apple Perangi Pelecehan Anak
Hide Ads

Ini Cara Apple Perangi Pelecehan Anak

Anggoro Suryo Jati - detikInet
Jumat, 06 Agu 2021 15:39 WIB
NEW YORK, NY - AUGUST 02:  The Apple logo is displayed in an Apple store in lower Manhattan on August 2, 2018 in New York City. On Thursday the technology company and iPhone maker became the first American public company to cross $1 trillion in value. Apple stock is up more than 20% this year.  (Photo by Spencer Platt/Getty Images)
Ini Cara Apple Perangi Pelecehan Anak. Foto: Spencer Platt/Getty Images
Jakarta -

Apple mengkonfirmasi rencananya dalam memerangi pelecehan anak, yaitu lewat teknologi baru di iOS, macOS, iMessage, dan watchOS.

Teknologi ini bertujuan untuk menghambat penyebaran gambar pelecehan anak, yaitu dengan memindai semua foto yang akan disimpan ke iCloud. Pemindaian ini dilakukan dalam perangkat pengguna, namun dijanjikan akan tetap melindungi privasi pengguna.

Pemindaian gambarnya ini didasarkan pada kriptografi khusus untuk mendeteksi tanda-tanda pelecehan anak yang ada dalam foto. Pemindaiannya sendiri baru akan terjadi jika foto tersebut akan diunggah ke iCloud.

SCROLL TO CONTINUE WITH CONTENT

Lalu jika foto yang dipindai ini terdeteksi sebagai pelecehan anak dari data kriptografi yang ada, maka fotonya akan dilaporkan ke Apple jika memenuhi syarat child sexual abuse material (CSAM), demikian dikutip detikINET dari The Verge, Jumat (6/8/2021).

Sebelumnya selama bertahun-tahun Apple menggunakan sistem hash untuk memindai gambar pelecehan anak yang dikirimkan lewat email, sama seperti sistem yang dipakai Gmail dan berbagai penyedia layanan email lain.

ADVERTISEMENT

Namun dengan teknologi kriptografi baru ini, Apple bisa memindai dan mencari foto pelecehan anak sebelum foto tersebut dikirimkan ke pengguna lain, atau bahkan jika foto tersebut tidak pernah dikirimkan ke pengguna lain.

Apple meyakinkan bahwa mereka tidak akan menerima foto apapun yang tidak sesuai dengan database CSAM. Mereka pun tidak akan menerima metadata ataupun data visual lain dari foto yang tidak memenuhi syarat.

Lalu pengguna pun tidak akan bisa mengakses ataupun melihat database foto-foto CSAM, dan pengguna juga tidak mengetahui foto mana yang ditandai sebagai CSAM oleh sistem.

Sistem yang dipakai ini dilengkapi berbagai perlindungan, yang secara teori, membuat tingkat kesalahannya hanya 1 peringatan salah setiap 1 triliun pengguna setiap tahunnya.

Lalu setiap peringatan yang muncul dari foto yang diduga masuk kategori CSAM, akan ditinjau ulang oleh Apple dan National Center for Missing and Exploited Children (NCMEC), sebelum kemudian dikirimkan ke penegak hukum.

Sistem keamanan ini akan diterapkan Apple ke berbagai platform sistem operasinya di Amerika Serikat mulai musim gugur tahun ini. Sebelumnya ada juga fitur sejenis yang sebelumnya ada di iMessage, yaitu pemindaian foto yang ada di akun anak-anak untuk mencari keberadaan konten pornografi.




(asj/fay)