Chatbot OpenAI, Google Hingga Microsoft tak Bisa Gantikan Manusia, Ini Alasannya
Teknologi kecerdasan buatan dianggap sering 'berhalusinasi'.
REPUBLIKA.CO.ID, JAKARTA---Produk model bahasa alami milik OpenAI seperti ChatGPT, Google Bard dari Google, dan Bing AI buatan Microsoft telah menjadi sangat populer karena kemampuannya menghasilkan teks dalam jumlah besar dengan cepat. Tetapi apakah itu bisa menggantikan semua kegiatan manusia di masa mendatang?
Produk chatbot mampu meyakinkan manusia. Tetapi "halusinasi" kecerdasan buatan (AI), juga dikenal sebagai mengarang, adalah masalah utama dari produk tersebut. Sayangnya, para ahli memperingatkan, masalah itu mungkin akan selalu terjadi, sehingga tidak selamanya bisa menggantikan seluruh tugas manusia.
Sebuah laporan baru dari Associated Press menyoroti bahwa masalah dengan confabulation Large Language Model (LLM) mungkin tidak semudah yang diklaim oleh banyak pendiri teknologi dan pendukung AI. Menurut profesor University of Washington (UW) Emily Bender, seorang linguistik profesor di Laboratorium Linguistik Komputasi UW, masalah ini tidak bisa diperbaiki.
“Ini melekat pada ketidaksesuaian antara teknologi dan kasus penggunaan yang diusulkan,” kata dia, seperti dikutip dari Techradar, Kamis (3/8/2023).
Dalam beberapa kasus, masalah ‘mengarang’ ini sebenarnya menguntungkan, menurut presiden AI Jasper, Shane Orlick. Dia mengatakan problem halusinasi ini sebenarnya adalah bonus tambahan.
"Kami memiliki pelanggan sepanjang waktu yang memberi tahu kami bagaimana ide itu muncul, bagaimana Jasper menciptakan cerita atau sudut pandang yang tidak akan pernah mereka pikirkan sendiri,” kata dia.
Di sisi lain, halusinasi AI merupakan daya tarik besar untuk pembuatan gambar AI, di mana model seperti Dall-E dan Midjourney bisa menghasilkan gambar yang mencolok sebagai hasilnya. Namun untuk pembuatan teks, masalah halusinasi tetap menjadi masalah nyata, terutama dalam hal pelaporan berita yang akurasinya sangat penting. "(LLM) dirancang untuk mengarang. Hanya itu yang dilakukan," kata Bender.
Tetapi karena LLM hanya mengarang, ketika teks yang diekstrusi sebagai sesuatu yang dianggap benar, itu menjadi kebetulan. Bahkan jika LLM lebih sering memberi jawaban yang benar, tetap masih akan memiliki mode kegagalan dan kemungkinan akan terjadi dalam kasus di mana lebih sulit bagi seseorang yang membaca teks untuk menyadarinya, karena hasilnya lebih tidak jelas.
LLM adalah alat ampuh yang dapat melakukan hal-hal luar biasa, tetapi perusahaan dan industri teknologi harus memahami bahwa hanya karena sesuatu yang kuat tidak berarti itu adalah alat yang baik untuk digunakan.
Ahli mengibaratkan seperti alat pengebor misalnya bisa menjadi alat yang bagus untuk pekerjaan memecah trotoar dan aspal, tetapi tidak tepat dibawa ke situs penggalian arkeologi. Menghadirkan chatbot AI ke dalam organisasi berita terkemuka dan meluncurkan alat ini sebagai inovasi yang menghemat waktu bagi jurnalis, adalah kesalahpahaman mendasar tentang cara menggunakan bahasa untuk mengkomunikasikan informasi penting.
Masalah yang dialami seorang pengacara baru-baru ini yang mendapat sanksi akibat ketahuan menggunakan kasus hukum palsu hasil AI chatbot, menjadi salah satu kasus yang bisa menjadi pelajaran.
Seperti yang dicatat Bender, LLM dibangun dari bawah ke atas untuk memprediksi kata berikutnya secara berurutan berdasarkan prompt yang diberikan pengguna. Setiap kata dalam data pelatihannya telah diberi bobot atau persentase yang akan mengikuti setiap kata yang diberikan dalam konteks tertentu.
Apa yang tidak dikaitkan dengan kata-kata itu adalah makna aktual atau konteks penting yang menyertainya untuk memastikan bahwa hasilnya akurat. Model bahasa besar ini adalah peniru luar biasa yang tidak tahu apa yang sebenarnya dikatakan.
Jadi jika menganggap chatbot AI adalah segalanya bisa menjadi masalah besar. Kelemahan ini dimasukkan ke dalam LLM itu sendiri.