Penasaran dengan kabar terbaru dari OpenAI? Jadi gini, baru-baru ini mereka nambahin update ke Preparedness Framework mereka. Nah, di update ini, mereka bilang kalau mereka bisa "nyesuaiin" syarat keamanan mereka jika lab AI pesaing jual sistem "berisiko tinggi" tanpa proteksi yang sama. Serius bro, ini jelas nunjukin ada tekanan kompetitif yang makin kuat di kalangan pengembang AI komersial untuk cepat-cepatan keluarin model-modelnya.
Bayangin aja, OpenAI dituduh nyeret standar keamanan demi rilis yang cepat, dan dianggap gagal dalam ngasih laporan tepat waktu tentang pengujian keamanannya. Terusan, mantan karyawan OpenAI ngajukan pendapat di kasus Elon Musk melawan OpenAI, dengan argumen kalau perusahaan bakal terdorong buat lebih banyak ngambil jalan pintas soal keamanan kalau beneran restrukturisasi perusahaan mereka. Buat antisipasi kritik, OpenAI bilang mereka nggak akan gampang-gampang banget nyetel ulang kebijakan mereka.
Di bawah ini, ada pembahasan lebih lanjut tentang perubahan di Preparedness Framework mereka.
Adjusting Safeguards dengan Cermat
OpenAI memperjelas kalau mereka makin bergantung pada evaluasi otomatis buat percepatan pengembangan produk. Katanya, mereka tetep ngadain pengujian yang dipimpin manusia juga, tapi sekarang mereka punya "suite" evaluasi otomatis yang bisa ngikuti "jadwal rilis yang lebih cepat".
Fokus pada Tingkat Risiko
Perubahan-perubahan Framework OpenAI juga ngebahas cara mereka nyategorikan model sesuai tingkat risikonya. Mereka bakal lebih fokus pada apakah model-model itu memenuhi salah satu dari dua ambang batas: "high" capability atau "critical" capability.
Voila, begitulah kira-kira update terbaru dari OpenAI. Kita nggak nyangka ya, dunia AI bisa seru banget dan penuh dengan dinamika. Semoga dengan langkah-langkah ini, OpenAI bisa tetep jaga keamanannya di tengah persaingan yang ketat.
Sumber inspirasi: TechCrunch
powered by jamterbang.com