REPUBLIKA.CO.ID, JAKARTA -- ChatGPT mungkin terlihat seperti alat yang berguna untuk membantu sejumlah pekerjaan. Namun, sebelum meminta chatbot untuk meringkas memo penting atau memeriksa kesalahan pekerjaan, perlu diingat bahwa apa pun yang dibagikan dengan ChatGPT dapat digunakan untuk melatih sistem. Bahkan, mungkin memunculkan tanggapannya kepada pengguna lain.
Itu adalah sesuatu yang mungkin harus diketahui oleh beberapa karyawan Samsung sebelum mereka dilaporkan membagikan informasi rahasia dengan chatbot. Menurut laporan The Economist, hal itu terjadi setelah divisi semikonduktor Samsung mulai mengizinkan para insinyur untuk menggunakan ChatGPT. Namun, para pekerja membocorkan informasi rahasia setidaknya tiga kali.
Seorang karyawan dilaporkan meminta chatbot untuk memeriksa kode sumber database sensitif untuk kesalahan. Sementara yang lain meminta pengoptimalan kode dan memasukkan rekaman rapat ke ChatGPT serta memintanya untuk meringkasnya.
Laporan menunjukkan setelah mengetahui tentang kesalahan keamanan, Samsung berusaha membatasi tingkat kecerobohan di masa mendatang dengan membatasi permintaan ChatGPT karyawan hingga satu kilobyte atau 1024 karakter teks. Perusahaan juga sedang menyelidiki ketiga karyawan tersebut dan membangun chatbot sendiri untuk mencegah kecelakaan serupa.
Dilansir Engadget, Sabtu (8/4/2023), kebijakan data ChatGPT menyatakan kecuali pengguna memilih keluar secara eksplisit, ChatGPT akan menggunakan permintaan mereka untuk melatih modelnya. Pemilik chatbot, OpenAI, mendesak pengguna untuk tidak membagikan informasi rahasia dengan ChatGPT dalam percakapan karena tidak dapat menghapus petunjuk spesifik dari riwayat.
Satu-satunya cara untuk menghilangkan informasi pengenal pribadi di ChatGPT adalah dengan menghapus akun, sebuah proses yang dapat memakan waktu hingga empat pekan. Kisah Samsung merupakan contoh mengapa kita perlu berhati-hati saat menggunakan chatbot.