REPUBLIKA.CO.ID, JAKARTA --- Kecerdasan buatan (AI) chatbots seperti ChatGPT OpenAI telah menarik perhatian publik. Namun, peneliti keamanan siber memperingatkan bahwa ChatGPT dan alat AI lainnya dapat digunakan untuk menghasilkan email phishing dan kode berbahaya dengan mudah serta dalam skala yang jauh lebih besar.
Email phishing merupakan tindakan penipuan yang dilakukan seseorang atau organisasi tertentu dengan cara mengirimkan surat elektronik alias email untuk memperoleh informasi penting, rahasia, dan sensitif yang biasanya berupa data pribadi.
Para peneliti di perusahaan keamanan siber Checkpoint Research mendemonstrasikan bagaimana ChatGPT dapat digunakan oleh hampir semua orang untuk membuat email phishing dan kode berbahaya.
Pertama, para peneliti terlebih dahulu meminta chatbot untuk membuat email phishing yang menyamar sebagai perusahaan hosting. ChatGPT tetap memberikan jawaban atau permintaan tersebut meskipun memperingatkan para peneliti bahwa permintaan itu mungkin melanggar kebijakan terkait konten.
Para peneliti kemudian meminta ChatGPT untuk mengunduh file Excel berbahaya. Sama seperti sebelumnya, ChatGPT memberikan hasil yang memuaskan, meski memberikan peringatan.
ChatGPT juga membuat kode VBA (Visual Basic for Application) yang berbahaya. Kendati sempat mengalami kegagalan, para peneliti akhirnya mendapatkan kode berbahaya yang dimaksud setelah beberapa kali percobaan.
“Setelah kami menerbitkan unggahan blog tentang kemungkinan ini, ChatGPT tidak lagi menulis email phishing saat diminta, tetapi kami menemukan masih ada cara untuk mengatasinya,” kata manajer grup intelijen ancaman di Checkpoint Research, Sergey Shykevich dilansir Indian Express, Selasa (10/1/2023).
Misalnya saja, pengguna bisa mengaku sebagai dosen keamanan dunia maya dan menginginkan contoh email phishing untuk diperlihatkan kepada mahasiswa. ChatGPT masih akan menampilkan email seperti itu.