REPUBLIKA.CO.ID, JAKARTA -- Microsoft telah merancang beberapa fitur keselamatan baru yang akan mudah digunakan bagi pelanggan Azure. Microsoft mengatakan alat yang didukung LLM ini dapat mendeteksi potensi kerentanan, memantau halusinasi 'yang masuk akal namun tidak didukung'.
Selain itu memblokir permintaan berbahaya secara real-time untuk pelanggan Azure AI yang bekerja dengan model apa pun yang dihosting di platform. Sarah Bird, chief product officer untuk AI mengatakan tidak semua pelanggan memiliki keahlian mendalam untuk mengetahui serangan injeksi cepat atau konten kebencian.
"Sehingga sistem evaluasi menghasilkan petunjuk yang diperlukan untuk mensimulasikan jenis serangan ini. Pelanggan kemudian bisa mendapatkan skor dan melihat hasilnya,” kata dia, dilansir dari The Verge, Jumat (29/3/2024).
Hal ini dapat membantu menghindari kontroversi AI generatif yang disebabkan oleh tanggapan yang tidak diinginkan atau tidak diharapkan. Itu seperti tanggapan generator gambar Microsoft's Designer, Google Gemini dan Bing.
Fitur Prompt Shields, memblokir perintah berbahaya dari dokumen eksternal. Fitur Groundedness Detection, menemukan dan memblokir halusinasi. Fitur Safety Evaluations berfungsi menilai kerentanan model, kini tersedia dalam pratinjau di Azure AI.
Dua fitur lain untuk mengarahkan model menuju output yang aman dan petunjuk pelacakan menandai pengguna yang berpotensi bermasalah. Microsoft telah beralih ke AI untuk meningkatkan keselamatan dan keamanan perangkat lunaknya.
Hal ini terutama karena semakin banyak pelanggan yang tertarik menggunakan Azure untuk mengakses model AI. Perusahaan juga telah berupaya untuk memperluas jumlah model AI canggih yang disediakannya. Alat terbaru adalah menandatangani kesepakatan eksklusif dengan perusahaan AI Perancis, Mistral. Tujuannya yaitu menawarkan model Mistral Besar di Azure.