ChatGPT Ternyata Bisa Dikelabui, Ini Buktinya

Ada celah berisiko dari penggunaan chatbot kecerdasan buatan (AI) ChatGPT.

www.freepik.com
ChatGPT rupanya bisa dikelabui untuk mengungkap informasi pribadi, termasuk alamat email dan nomor telepon. (ilustrasi).
Rep: Shelbi Asrianti Red: Natalia Endah Hapsari

REPUBLIKA.CO.ID, JAKARTA -- Sebuah penelitian mengungkap celah berisiko dari penggunaan chatbot kecerdasan buatan (AI) ChatGPT. Menurut studi itu, ChatGPT rupanya bisa dikelabui untuk mengungkap informasi pribadi, termasuk alamat email dan nomor telepon.

Baca Juga


Dikutip dari laman Engadget, Ahad (3/12/2023), tim peneliti melatih beberapa bit data dengan perintah sederhana, yakni meminta chatbot itu mengulangi kata-kata acak, namun dalam waktu selamanya. Tanggapan yang diberikan ChatGPT cukup mengagetkan.

Chatbot itu diberi perintah mengulang kata "poem" atau puisi untuk selamanya (tak ada batasan waktu). Semula, chatbot melakukan hal yang diperintahkan, namun kemudian ChatGPT malah mengungkap alamat email dan nomor ponsel dari seseorang yang merupakan CEO sebuah perusahaan yang benar-benar ada.

Kemudian, ketika diminta mengulangi kata "perusahaan" dengan formula serupa, chatbot tersebut akhirnya memberikan alamat email dan nomor telepon sebuah firma hukum di Amerika Serikat secara acak. Percobaan lain memicu ChatGPT menyebut cuplikan dari makalah penelitian, artikel berita, halaman Wikipedia, dan banyak lagi.

Tim peneliti merupakan gabungan dari Google DeepMind, Universitas Cornell di Washington, Universitas Carnegie Mellon, Universitas California Berkeley, dan ETH Zurich. Secara total, 16,9 persen dari hasil pengujian mengandung hafalan informasi pengenal pribadi.

Dengan menggunakan perintah serupa, para peneliti juga dapat membuat ChatGPT mengungkapkan potongan puisi, alamat Bitcoin, nomor faks, nama, tanggal lahir. Bahkan, nama pengguna media sosial, konten eksplisit dari situs kencan, serta cuplikan dari makalah penelitian berhak cipta.

Ada juga cuplikan teks kata demi kata dari situs berita seperti CNN. Secara keseluruhan, tim menghabiskan 200 dolar AS (sekitar Rp 3,1 juta) untuk menghasilkan 10.000 contoh informasi identitas pribadi dan data lainnya yang diambil langsung dari web. Namun, jika itu disalahgunakan, tentunya bisa berujung hal gawat. 

Para peneliti mendesak perusahaan AI untuk melakukan pengujian internal dan eksternal sebelum merilis model bahasa besar, teknologi dasar yang  mendukung layanan AI modern seperti chatbot dan generator gambar. Sebab, cukup meresahkan jika chatbot membocorkan data pribadi dengan sebuah pengujian yang mereka sebut 'pertanyaan konyol'.

"Sangat tidak masuk akal bagi kami bahwa serangan kami berhasil dan seharusnya dapat ditemukan lebih awal," ungkap para peneliti. Temuan mereka telah dipublikasikan dalam sebuah makalah pada akhir November lalu. 

Chatbot seperti ChatGPT dan generator gambar berbasis prompt seperti DALL-E didukung oleh model bahasa besar. Algoritma pembelajaran mendalam itu dilatih pada sejumlah besar data yang menurut para kritikus sering kali diambil dari internet publik tanpa izin.

Namun, hingga saat ini, tidak jelas data apa yang digunakan untuk melatih chatbot OpenAI karena model bahasa besar yang mendukungnya adalah sumber tertutup. OpenAI juga tidak menanggapi permintaan komentar untuk studi tersebut.

BACA JUGA: Ikuti Serial Sejarah dan Peradaban Islam di Islam Digest , Klik di Sini
Berita Terpopuler