REPUBLIKA.CO.ID, JAKARTA---Pemerintahan Biden mungkin mendanai penelitian kecerdasan buatan (AI). Namun, mereka juga berharap agar perusahaan tetap bertanggung jawab atas teknologi AI.
Wakil Presiden AS Kamala Harris telah bertemu dengan pimpinan perusahaan teknologi besar, seperti Alphabet, Microsoft, OpenAI, dan Anthropic dalam upaya mendapatkan perlindungan untuk produk AI.
“Perusahaan swasta memiliki tanggung jawab etis, moral, dan hukum untuk membuat produk AI mereka aman dan terlindungi. Mereka masih harus menghormati hukum saat ini,” kata Harris dalam sebuah pernyataan, dikutip Engadget.
Harris menganggap teknologi AI generatif seperti Bard, Bing Chat, dan ChatGPT memiliki potensi untuk membantu dan merugikan negara. Meskipun dapat mengatasi beberapa tantangan terbesar, tetapi itu juga dapat digunakan untuk melanggar hak, menciptakan ketidakpercayaan, dan melemahkan keyakinan pada demokrasi.
Dia menunjuk pada investigasi atas campur tangan Rusia selama pemilihan presiden 2016 sebagai bukti bahwa negara-negara yang bermusuhan akan menggunakan teknologi untuk melemahkan proses demokrasi. Bloomberg mengklaim undangan pertemuan tersebut menguraikan diskusi tentang risiko pengembangan AI, upaya untuk membatasi risiko tersebut, dan cara lain pemerintah dapat bekerja sama dengan sektor swasta untuk merangkul AI dengan aman.
AI generatif sangat membantu untuk jawaban pencarian terperinci, menghasilkan karya seni, dan bahkan menulis pesan untuk pencari kerja. Namun, akurasi tetap menjadi masalah dan ada kekhawatiran tentang kecurangan, pelanggaran hak cipta, dan otomatisasi pekerjaan.
IBM mengatakan pekan ini akan menghentikan perekrutan untuk peran yang dapat diganti dengan AI. Ada cukup banyak kekhawatiran tentang bahaya AI sehingga para pemimpin dan pakar industri menyerukan jeda enam bulan pada eksperimen.
Pejabat Biden tidak menunggu perusahaan bertindak. Administrasi Telekomunikasi dan Informasi Nasional meminta komentar publik tentang kemungkinan aturan untuk pengembangan AI. Meski begitu, pertemuan Harris mengirimkan pesan yang tidak terlalu halus bahwa pembuat AI menghadapi tindakan keras jika mereka tidak bertindak secara bertanggung jawab.