CARAPANDANG.COM- OpenAI kini mulai secara rutin mempublikasikan hasil evaluasi keamanan internal terhadap model AI-nya sebagai upaya meningkatkan transparansi dalam pengembangan teknologi kecerdasan buatan (AI).
Dilansir dari Tech Crunch pada Kamis, perusahaan tersebut meluncurkan Safety Evaluations Hub, sebuah laman khusus yang menampilkan skor model-model OpenAI dalam berbagai pengujian, termasuk kemampuan menghasilkan konten berbahaya, kerentanan terhadap jailbreak, dan tingkat halusinasi.
OpenAI menyatakan akan terus memperbarui laman ini secara berkala, terutama saat ada pembaruan besar pada model-modelnya.
“Seiring berkembangnya ilmu evaluasi AI, kami ingin membagikan kemajuan kami dalam mengembangkan metode yang lebih terukur untuk mengukur kemampuan dan keamanan model,” kata OpenAI.
“Dengan membagikan sebagian hasil evaluasi keamanan ini, kami berharap ini tak hanya mempermudah pemahaman publik terhadap kinerja keamanan sistem OpenAI dari waktu ke waktu, tapi juga mendukung upaya komunitas untuk meningkatkan transparansi di bidang ini,” sambungnya.
OpenAI juga membuka kemungkinan untuk menambahkan jenis evaluasi lain ke dalam hub tersebut di masa mendatang.
Langkah ini datang di tengah kritik dari sejumlah ahli etika yang menuduh OpenAI terburu-buru meluncurkan model tanpa pengujian keamanan yang memadai, serta tak merilis laporan teknis untuk beberapa model andalannya.