Ikut Tren AI, Meta Rilis Model Bahasa Baru
Meta terjun ke dunia AI dengan merilis model bahasa alami baru bernama LLaMA.
REPUBLIKA.CO.ID, JAKARTA---Raksasa teknologi seperti Microsoft dan Google, bersama OpenAI telah menjadi sorotan berkat penelitian dan kemajuan kecerdasan (AI) inovatif perusahaan. Pemilik Meta, Mark Zuckerberg tampaknya tidak mau kalah dalam mengikuti tren tersebut.
Meta terjun ke dunia AI dengan merilis model bahasa alami baru, bernama LLaMA. Model tersebut dilaporkan mengungguli GPT-3 di sebagian besar tolok ukur, hanya sepersepuluh dari ukuran total GPT-3.
Meta's Large Language Model Meta AI (LLaMA) dirancang dengan mempertimbangkan tim peneliti dari semua ukuran. Dengan ukuran hanya 10 persen dari GPT-3 (Generative Pre-trained Transformer generasi ketiga), model LLaMA menyediakan sumber daya kecil namun berperforma tinggi sehingga dapat dimanfaatkan oleh tim riset terkecil sekalipun, menurut Meta.
Ukuran model ini memastikan bahwa tim kecil dengan sumber daya terbatas masih dapat menggunakan model tersebut dan berkontribusi pada kemajuan AI dan pembelajaran mesin secara keseluruhan.
Pendekatan Meta dengan LLaMA sangat berbeda jika dibandingkan dengan ChatGPT OpenAI, Bard Google, atau Prometheus Microsoft. Perusahaan merilis model baru di bawah lisensi nonkomersial, dan menegaskan kembali komitmen terhadap keadilan dan transparansi AI.
“Akses bagi peneliti di organisasi lintas pemerintah, akademisi, dan penelitian industri yang tertarik untuk memanfaatkan model ini harus mengajukan permohonan lisensi dan memberikan akses berdasarkan kasus per kasus,” demikian laporan, seperti dikutip dari Techspot, Ahad (26/2/2023).
Para peneliti yang berhasil mendapatkan lisensi akan memiliki akses ke model LLaMA yang kecil dan sangat mudah diakses. Meta membuat LLaMA tersedia dalam beberapa parameter ukuran termasuk 7B, 13B, 33B, dan 65B.
Perusahaan juga merilis kartu model LLaMA di GitHub, yang memberikan detil tambahan tentang model itu sendiri dan sumber data pelatihan publik Meta.
Menurut kartu tersebut, model dilatih menggunakan CCNet (67 lersen), C4 (15 persen), GitHub (4,5 persen), Wikipedia (4,5 persen), Buku (4,5 persen), ArXiv (2,5 persen), dan Stack Exchange ( 2 persen).
Meta sangat terbuka tentang keadaan LLaMA dan bertujuan untuk mengembangkan model ini lebih lanjut. Meskipun ini adalah model dasar yang dapat diadaptasi ke sejumlah kasus penggunaan berbeda, perusahaan mengakui bahwa hal-hal yang tidak diketahui terkait bias yang disengaja dan komentar beracun, masih menjadi ancaman yang harus dikelola.
Perusahaan berharap model yang kecil, namun fleksibel ini akan mengarah pada pendekatan baru yang dapat membatasi, atau dalam beberapa kasus menghilangkan, potensi eksploitasi model. Makalah penelitian LLaMA lengkap tersedia untuk diunduh dan ditinjau dari blog Meta Research. Bagi yang tertarik untuk mengajukan akses, dapat melakukannya di formulir permintaan daring Meta.