Cara Apple Perangi Pelecehan Anak Tuai Kontroversi
Apple akan memindai iPhone untuk mencari bukti foto pelecehan anak.
REPUBLIKA.CO.ID, NEW YORK -- Apple telah mengumumkan rincian sistem untuk menemukan foto pelecehan seksual anak (CSAM) di perangkat pelanggan. Sebelum gambar disimpan ke Foto iCloud, teknologi akan mencari kecocokan dari CSAM yang sudah dikenal.
Apple mengatakan bahwa jika kecocokan ditemukan, peninjau manusia akan menilai dan melaporkan pengguna ke penegak hukum, dilansir di BBC, Jumat (6/8).
Namun ada kekhawatiran privasi bahwa teknologi dapat diperluas untuk memindai ponsel untuk konten terlarang atau bahkan pidato politik. Para ahli khawatir bahwa teknologi tersebut dapat digunakan oleh pemerintah otoriter untuk memata-matai warganya.
Apple mengatakan bahwa versi baru iOS dan iPadOS, yang akan dirilis akhir tahun ini, akan memiliki aplikasi kriptografi baru untuk membantu membatasi penyebaran CSAM online, sambil merancang untuk privasi pengguna.
Sistem ini bekerja dengan membandingkan gambar ke database gambar pelecehan seksual anak yang diketahui yang disusun oleh Pusat Nasional untuk Anak Hilang dan Tereksploitasi (NCMEC) dan organisasi keselamatan anak lainnya.
Gambar-gambar itu diterjemahkan ke dalam hash, kode numerik yang dapat 'dicocokkan' dengan gambar di perangkat Apple. Apple mengatakan teknologi ini juga akan menangkap gambar asli yang diedit tetapi serupa.
"Sebelum gambar disimpan di Foto iCloud, proses pencocokan di perangkat dilakukan untuk gambar tersebut terhadap hash CSAM yang diketahui," kata Apple.
Perusahaan mengklaim sistem itu memiliki tingkat akurasi yang sangat tinggi dan memastikan kurang dari satu dalam satu triliun peluang per tahun untuk salah menandai akun tertentu.
Apple mengatakan bahwa mereka akan meninjau setiap laporan secara manual untuk memastikan ada kecocokan. Kemudian dapat mengambil langkah-langkah untuk menonaktifkan akun pengguna dan melaporkan ke penegak hukum.
Perusahaan mengatakan bahwa teknologi baru menawarkan manfaat privasi signifikan atas teknik yang ada, karena Apple hanya belajar tentang foto pengguna jika mereka memiliki koleksi CSAM yang dikenal di akun Foto iCloud mereka. Namun beberapa pakar privasi telah menyuarakan keprihatinan. Mereka khawatir cara itu akan merusak aturan privasi pengguna.