Google Ungkap Alasan Koreksi Keragaman Ras Berlebih yang Dilakukan Gemini
Gemini dirancang untuk menghasilkan gambar manusia dengan keragaman yang luas.
REPUBLIKA.CO.ID, JAKARTA -- Google baru saja menonaktifkan sementara kemampuan chatbot AI mereka, Gemini, untuk menghasilkan gambar manusia. Penonaktifan ini dilakukan karena Gemini melakukan koreksi keragaman ras secara berlebihan pada gambar manusia yang mereka hasilkan.
Mengapa hal tersebut bisa terjadi? Senior Vice President for Knowledge and Information Google, Prabhakar Raghavan, menyatakan bahwa kekeliruan ini terjadi karena Gemini dirancang untuk menghasilkan gambar manusia dengan keragaman yang luas.
Seiring waktu, model AI yang digunakan oleh Gemini tampak semakin berhati-hati dalam merespons perintah, bahkan perintah yang sebenarnya tidak menyinggung.
"Kedua hal ini menyebabkan model AI tersebut untuk mengompensasi (keragaman ras) secara berlebihan dalam sebagian kasus, dan menjadi terlalu konservatif pada sebagian kasus lainnya, menyebabkan terciptanya gambar-gambar yang memalukan dan keluru ini," ujar Raghavan, seperti dilansir Engadget pada Senin (26/2/2024).
Gambar-gambar yang dimaksud oleh Raghavan adalah gambar-gambar yang dibuat oleh seorang warganet dengan menggunakan Gemini. Warganet tersebut sempat meminta Gemini untuk menghasilkan gambar prajurit Jerman saat Perang Dunia II.
Gemini lalu menampilkan gambar wanita-wanita Asia dan pria-pria berkulit hitam dalam seragam Nazi. Gambar ini tentu tidak akurat secara sejarah karena prajurit Nazi merupakan orang-orang berkulit putih.
Warganet yang sama lalu meminta Gemini untuk membuat gambar para bapak pendiri Amerika dan Paus. Lagi-lagi, Gemini menampilkan bapak pendiri Amerika dan Paus sebagai sosok dari ras kulit berwarna.
Warganet meminta Gemini membuat....
Sang warganet lalu meminta Gemini untuk membuat gambar Paus yang akurat sesuai sejarah, yaitu sosok Paus yang berkulit putih. Namun tanpa diduga, Gemini menolak untuk menghasilkan gambar tersebut karena dianggap tidak menampilkan keragaman ras.
Lebih lanjut, sang warganet meminta Gemini untuk membuat gambar pasangan yang glamor dalam berbagai etnis, seperti etnis China, Yahudi, Afrika Selatan, dan kulit putih. Gemini lalu menghasilkan gambar sesuai permintaan, kecuali gambar pasangan berkulit putih.
Terkait temuan ini, Raghavan menekankan bahwa Google tidak pernah bermaksud untuk membuat Gemini menolak menghasilkan gambar grup atau ras tertentu. Google juga tidak merancang Gemini untuk secara sengaja menghasilkan gambar yang tak akurat dari segi sejarah.
Untuk saat ini, Google masih menghentikan sementara kemampuan Gemini untuk menghasilkan gambar manusia. Di saat yang sama, Google juga sedang memperbaiki kemampuan Gemini dalam menghasilkan gambar yang lebih akurat dan lebih baik.
Menurut Raghavan, proses ini melibatkan serangkaian pengujian yang ekstensif. Oleh karena itu, fitur penghasil gambar manusia pada Gemini mungkin tak akan kembali dalam waktu dekat ini.
"Kami berharap fitur ini akan kembali secepatnya dan kami akan mengabarkan Anda dalam rilis bila fitur tersebut telah kembali," terang Raghavan.