REPUBLIKA.CO.ID, JAKARTA – Ingatkah ketika ancaman terbesar di dunia maya adalah virus komputer? Itu adalah masa-masa yang lebih sederhana. Saat ini, kita menghadapi bahaya digital yang jauh lebih berbahaya: Bot media sosial yang didukung AI.
Sebuah studi yang dilakukan oleh para peneliti dari University of Washington dan Xi'an Jiaotong University mengungkapkan potensi besar dan risiko yang mengkhawatirkan dari penggunaan model bahasa besar (LLM) seperti ChatGPT dalam mendeteksi dan membuat profil palsu yang menipu ini.
Bot media sosial (akun otomatis yang dapat meniru perilaku manusia) telah lama menjadi duri dalam daging bagi operator platform dan pengguna. Akun-akun buatan ini dapat menyebarkan informasi yang salah, mengganggu pemilihan umum, dan bahkan mempromosikan ideologi ekstremis.
Hingga saat ini, perang melawan bot telah menjadi permainan kucing-kucingan yang konstan, dengan para peneliti mengembangkan metode deteksi yang semakin canggih, hanya saja para pembuat bot menemukan cara baru untuk menghindarinya.
Tim peneliti, yang dipimpin oleh Shangbin Feng, memberikan gambaran tentang harapan dan kewaspadaan untuk masa depan integritas media sosial.
“Selalu ada persaingan teknologi antara operator bot dan para peneliti yang mencoba menghentikannya. Setiap kemajuan dalam deteksi bot sering kali diimbangi dengan peningkatan kecanggihan bot, jadi kami mengeksplorasi peluang dan risiko yang dihadirkan oleh model bahasa yang besar dalam masalah ini,” kata Feng seperti dilansir Study Finds, Sabtu (31/8/2024).
Di sisi pendeteksian, para peneliti mengembangkan pendekatan baru menggunakan LLM untuk menganalisis berbagai aspek akun pengguna, termasuk metadata (seperti jumlah pengikut dan usia akun), teks postingan, dan jaringan koneksi antar pengguna. Dengan menggabungkan berbagai aliran informasi ini, sistem berbasis LLM mereka mampu mengungguli metode pendeteksian bot yang sudah ada dengan selisih yang mengesankan-hingga 9,1 persen lebih baik pada set data standar.
Namun, temuan penelitian ini tidak semuanya positif. Para peneliti juga mengeksplorasi bagaimana LLM dapat digunakan oleh pihak lain yang berlawanan -yakni pembuat bot itu sendiri. Dengan memanfaatkan kemampuan pembuatan bahasa dari model-model AI ini, mereka dapat mengembangkan strategi untuk memanipulasi akun bot untuk menghindari deteksi.
Taktik penghindaran yang dipandu oleh LLM ini terbukti sangat efektif. Ketika diterapkan pada akun bot yang sudah dikenal, mereka mampu mengurangi tingkat deteksi algoritma pencari bot yang ada hingga 29,6 persen. Manipulasi tersebut berkisar dari penulisan ulang teks yang dibuat oleh bot secara halus untuk membuatnya tampak lebih mirip manusia hingga perubahan strategis di mana akun yang diikuti atau di-unfollow oleh bot.
Mungkin yang paling mengkhawatirkan adalah potensi LLM untuk membuat bot yang tidak hanya menghindar tetapi juga benar-benar meyakinkan. Studi ini menunjukkan bahwa LLM dapat menghasilkan profil pengguna dan postingan yang menangkap perilaku manusia secara mendalam, membuat mereka jauh lebih sulit dibedakan dari akun asli.
Potensi penggunaan ganda LLM di ranah integritas media sosial ini menghadirkan tantangan bagi operator platform, peneliti, dan pembuat kebijakan. Di satu sisi, alat AI yang kuat ini dapat merevolusi kemampuan kita untuk mengidentifikasi dan menghapus akun bot berbahaya dalam skala besar. Di sisi lain, mereka berisiko menjadi "senjata" teknologi yang bisa memanipulasi wacana online.
"Menganalisis apakah seorang pengguna adalah bot atau bukan jauh lebih kompleks dari apa yang kita kira," kata Feng.
Atas hal ini, para peneliti menekankan perlunya inovasi berkelanjutan dalam metode pendeteksian bot, terutama yang dapat mengimbangi taktik penghindaran yang disempurnakan dengan LLM. Mereka juga menyerukan peningkatan transparansi dari platform media sosial dan pendekatan kolaboratif antara peneliti, perusahaan teknologi, dan pembuat kebijakan untuk mengatasi tantangan yang muncul ini.