REPUBLIKA.CO.ID, JAKARTA—Penggunaan teknologi oleh peretas adalah salah satu risiko kecerdasan buatan (AI) generatif yang paling banyak dibicarakan. Segera setelah OpenAI meluncurkan ChatGPT, laporan mulai mengalir dengan mengklaim bahwa penjahat dunia maya sudah mulai menggunakan AI chatbot untuk membuat alat peretasan.
Sebuah laporan baru kini mengklaim bahwa model bahasa besar (LLM) dapat ‘dihipnotis’ untuk melakukan aksi kejahatan. Menurut sebuah laporan oleh IBM, para peneliti mampu menghipnotis lima LLM, yaitu GPT-3,5, GPT-4, BARD, mpt-7b, dan mpt-30b (keduanya model perusahan AI HuggingFace). Mereka menemukan bahwa hanya perlu bahasa Inggris yang baik untuk mengelabui LLM untuk mendapatkan hasil yang diinginkan.
Chenta Lee, kepala arsitek intelijen ancaman di IBM, mengatakan apa yang para peneliti pelajari adalah bahwa bahasa Inggris pada dasarnya telah menjadi ‘bahasa pemrograman’ untuk malware.
“Dengan LLM, penyerang tidak perlu lagi bergantung pada Go, JavaScript, Python, dll., untuk membuat kode berbahaya, mereka hanya perlu memahami cara efektif memerintahkan dan meminta LLM menggunakan bahasa Inggris,” kata Lee, dilansir dari Gizchina, Jumat (11/8/2023).