Senin 01 Jan 2024 13:18 WIB

Musim Pemilu, Jangan Sampai Masyarakat Terjebak Deepfake

Deepfake, bisa dijerat dengan pasal-pasal yang ada pada UU ITE dan UU PDP.

Red: Setyanavidita livicansera
Pekerja menyusun kotak suara Pemilu 2024 saat perakitan di gudang logistik KPU Tangerang Selatan, Banten, Kamis (28/12/2023). KPU setempat mulai melakukan proses perakitan kotak suara dengan jumlah total 19.134 buah yang akan didistribusikan ke delapan kecamatan di wilayah tersebut.
Foto: Antara/Sulthony Hasanuddin
Pekerja menyusun kotak suara Pemilu 2024 saat perakitan di gudang logistik KPU Tangerang Selatan, Banten, Kamis (28/12/2023). KPU setempat mulai melakukan proses perakitan kotak suara dengan jumlah total 19.134 buah yang akan didistribusikan ke delapan kecamatan di wilayah tersebut.

REPUBLIKA.CO.ID, SEMARANG -- Pemilihan Umum (Pemilu) 2024 tinggal menghitung hari. Di tengah masa kampanye yang akan berakhir hingga 10 Februari 2024, pemilih jangan sampai terjebak deepfake ketika akan menentukan pilihannya.

Warsa 2024 pun akan menjadi tahun yang penting untuk bangsa Indonesia karena pada tahun ini akan mengadakan pesta demokrasi besar-besaran, yaitu pemilu anggota legislatif sekaligus Pemilu Presiden/Wakil Presiden RI. Dengan demikian, pemilih pada hari Rabu, 14 Februari 2024, akan memilih calon anggota legislatif (caleg) pada Pemilu Anggota DPR RI, Pemilu Anggota DPD RI, dan pemilu anggota DPRD provinsi/kabupaten/kota. Pada hari yang sama, mereka juga akan memilih peserta Pilpres 2024.

Baca Juga

Namun, sayangnya hajat besar bangsa Indonesia itu sering kali dicederai dengan politik tidak etis. Bukan tidak mungkin, ada berita bohong atau hoaks dari lawan mereka, salah satunya adalah melalui deepfake.

Deepfake, adalah salah satu tipe dari kecerdasan buatan atau artificial intelligence (AI), menurut pakar keamanan siber Dr Pratama Persadha, memiliki potensi yang sangat berbahaya terhadap pemilu dan proses demokrasi secara keseluruhan.

Di tengah masa kampanye Pemilu 2024, muncul istilah Generative AI atau Gen AI yang merupakan sebutan untuk teknologi kecerdasan buatan yang mampu menghasilkan konten, gambar, teks, atau data baru yang memiliki karakteristik seperti manusia. Gen AI, menurut Pratama, telah diterapkan dalam berbagai bidang, seperti pembuatan gambar realistis, pembuatan teks, bahkan untuk keperluan keamanan siber.

Gen AI merupakan suatu teknologi yang mau tidak mau harus dihadapi oleh semua pihak, termasuk Indonesia. Beberapa negara lain yang berusaha mengatur penggunaan Gen AI, antara lain, Australia, Inggris, Cina, Uni Eropa, Prancis, Irlandia, Israel, Italia, Jepang, Spanyol, dan Amerika Serikat (AS).

Dijelaskan pula, deepfake bisa berupa rekaman audio atau video yang telah disunting dengan kecerdasan buatan (AI) sehingga tampak seolah-olah orang yang terekam benar-benar mengucapkan atau melakukan hal tersebut. Publik kemungkinan masih ingat beredarnya potongan video Presiden RI Joko Widodo berpidato menggunakan bahasa Mandarin.

Ini merupakan contoh video hoaks dengan teknologi AI atau deepfake yang sempat membuat geger publik menjelang akhir 2023 karena Jokowi terlihat fasih berbicara bahasa Mandarin dalam pidato kenegaraannya. Pratama mengibaratkan Gen AI pisau bermata dua.

Di satu sisi, Gen AI juga dapat untuk melakukan serangan siber seperti menghasilkan serangan yang lebih canggih dan sulit dideteksi, menciptakan kesenjangan keamanan yang lebih besar antara penyerang dan pembela. Selain itu, teknologi kecerdasan buatan ini untuk menghasilkan konten palsu, seperti deepfake.

Salah satu tipe dari AI ini dapat digunakan dalam kampanye disinformasi atau serangan siber, bahkan untuk mencoba memecahkan enkripsi yang lebih kuat. Ketergantungan pada teknologi juga menjadi salah satu implikasi negatif karena Gen AI dapat mempermudah pekerjaan sehari-hari sehingga manusia sudah tidak terbiasa melakukan hal rutin.

Keabsahan informasi yang dihasilkan pun masih perlu dipertanyakan karena jika data yang diberikan untuk melatih sistem tidak benar, kata Pratama, Gen AI akan memberikan hasil yang tidak tepat. Akibat yang ditimbulkan dari audio atau video palsu tersebut, antara lain, menyesatkan pemilih dan menyebabkan persepsi yang salah tentang calon atau isu tertentu dengan tujuan memengaruhi hasil pemilu, mencemarkan citra kandidat, serta dapat menimbulkan ketidakpercayaan pada pemilih dan merusak reputasi mereka.

Selain itu, deepfake bisa pula memengaruhi pandangan dan opini pemilih tentang calon atau isu tertentu. Bahkan dapat pula memengaruhi hasil pemilu dengan menyesatkan pemilih dan memengaruhi pola pikir mereka.

 

Hal lainnya terkait dengan deepfake, menurut Pratama, bisa menimbulkan kekacauan dan ketidakstabilan dalam masyarakat yang dapat mengganggu proses pemilu dan memengaruhi hasilnya. Di samping itu, deepfake juga dapat memperkuat polarisasi dalam masyarakat dan menyebabkan ketegangan sosial yang meningkat dan akan dapat menyulitkan dialog politik yang konstruktif dan menghalangi upaya untuk mencapai kesepakatan.

Untuk mengantisipasi berbagai bahaya deepfake, menurut Chairman Lembaga Riset Keamanan Siber CISSReC ini, Undang-Undang Nomor 19 Tahun 2016 tentang Perubahan atas Undang-Undang Nomor 11 Tahun 2008 tentang Informasi dan Transaksi Elektronik (UU ITE) dan Undang-Undang Nomor 27 Tahun 2022 tentang Perlindungan Data Pribadi (UU PDP) saja tidaklah cukup.

Deepfake, kata Pratama, termasuk sebagai salah satu berita bohong atau hoaks yang bisa dijerat dengan pasal-pasal yang ada pada UU ITE dan UU PDP. Akan tetapi, pelaku berita bohong via deepfake tersebut juga bisa dituntut dengan tambahan dakwaan dari Kitab Undang-Undang Hukum Pidana (KUHP) terkait dengan penipuan serta pencemaran nama baik.

Dengan makin besarnya sanksi, setidaknya dapat memberikan efek jera kepada pihak yang bermaksud menyebarkan berita bohong dengan metode deepfake tersebut pada masa kampanye Pemilu 2024. Apalagi, kalau masalah berita bohong tersebut juga diatur dalam UU Pemilu serta diancam sanksi yang berat sampai bisa diskualifikasi terhadap calon atau partai yang menyebarkan berita bohong tersebut.

 

Advertisement
Berita Lainnya
Advertisement
Advertisement