REPUBLIKA.CO.ID, SAN FRANCISCO -- Facebook Inc menyatakan moderator perusahaan selama tiga bulan terakhir telah menghapus 8,7 juta foto seksual anak-anak dengan bantuan perangkat lunak yang dirahasiakan. Perangkat tersebut secara otomatis menandai foto-foto dari para pengguna usia anak yang mengandung unsur seksual
Penggunaan perangkat lunak itu diterapkan selama setahun terakhir untuk mengidentifikasi foto-foto atau gambar seksual. Hal ini sejalan dengan ketegasan Facebook dalam menegakkan larangan mengunggah foto seksual oleh anak-anak.
Seperti dilansir dari Reuters, Kamis (25/10), Kepala Keamanan Global Facebook, Antigone Davis mengatakan, perangkat lunak tersebut sangat membantu perusahaan dalam memprioritaskan penangangan konten-konten bersamalah. Ia mengatakan, pihaknya tengah mencoba untuk menerapkan perangkat lunak tersebut ke Instagram.
Di bawah tekanan regulator dan anggota parlemen Amerika Serikat, Facebook telah berjanji untuk mempercepat penghapusan konten ekstrimis dan terlarang. Program pembelajaran mesin yang menyaring miliaran potongan konten yang dikirim pengguna setiap hari menjadi sangat penting.
Namun, perangkat lunak tersebut belum sempurna. Beberapa agen berita dan pengiklan mengadukan kepada Facebook bahwa akun mereka terblokir oleh perangkat tersebut. Davis mengatakan, sistem keamanan untuk anak memang akan membuat kesalahan tetapi para pengguna yang dirugikan dapat mengajukan banding.
"Kami lebih suka berbuat salah demi anak-anak," kata Davis.
Ia mengatakan, Facebook selama bertahun-tahun bahkan telah melarang foto keluarga serta anak-anak dengan pakaian seksi meski tak ada niatan buruk. Namun, walau bagaimanpun tetap dikhawatirkan foto-foto semacam itu akan disalahgunakan.