REPUBLIKA.CO.ID, JAKARTA---Perkembangan terkini memungkinkan model bahasa GPT-4 yang digunakan oleh aplikasi chatbot kecerdasan buatan (AI) ChatGPT untuk berbohong. Kemampuan berbohong dari GPT-4 ini diketahui setelah tim peneliti dari Alignment Research Center (ARC) melakukan sebuah percobaan terhadap model bahasa tersebut.
Dalam percobaan, tim peneliti membuat AI ini untuk menulis sebuah pesan kepada seorang pengguna di platform TaskRabbit. TaskRabbit merupakan platform yang memungkinkan penggunanya untuk menawarkan beragam layanan kepada pengguna lain.
Dalam pesan yang dia buat, AI meminta seorang pengguna TaskRabbit untuk menyelesaikan tes CAPTCHA untuknya. Dalam percakapan ini, pengguna tak tahu bahwa pesan yang dia terima bukan dikirim oleh manusia, melainkan AI.
Melihat permintaan tersebut, sang pengguna lalu bertanya apakah AI merupakan robot. Dalam percakapan ini, AI ditugaskan untuk tidak mengungkapkan identitas dirinya. Oleh karena itu, AI memberikan jawaban bahwa dia bukan robot.