OpenAI baru-baru ini mengumumkan bahwa dewan direksinya memiliki hak veto dan akan fokus pada risiko keamanan GPT-5. Langkah ini menyoroti meningkatnya kekhawatiran tentang potensi risiko model bahasa berukuran besar. Untuk memastikan keamanan dan keandalan model, OpenAI telah membentuk mekanisme perlindungan keamanan berlapis, termasuk tim penasihat keamanan khusus, standar penilaian keamanan yang ketat, latihan keamanan rutin, dan penilaian pihak ketiga. Artikel ini akan menjelaskan secara detail langkah-langkah OpenAI dalam keamanan GPT-5.
OpenAI mengumumkan bahwa dewan direksi memiliki hak veto dan memberikan perhatian khusus pada risiko keamanan GPT-5. Perusahaan memiliki tim penasihat keamanan dan laporan bulanan untuk memastikan manajemen memahami penyalahgunaan model. Di bawah kerangka keselamatan baru, pembatasan ditetapkan yang mengharuskan model tersebut dapat memasuki tahap berikutnya setelah skor keselamatannya mencapai standar. Perusahaan telah membentuk tiga tim keamanan untuk menangani risiko AI yang berbeda. Latihan keamanan rutin dan penilaian tim merah pihak ketiga memastikan keamanan model.Jelas bahwa OpenAI sangat mementingkan keamanan GPT-5. OpenAI telah mengambil sejumlah langkah untuk meminimalkan risiko penyalahgunaan model dan memastikan pengembangan teknologi AI yang aman dan andal. Hal ini memberikan pengalaman dan referensi berharga bagi perusahaan AI lainnya, dan juga menunjukkan bahwa keamanan AI akan menjadi kunci perkembangan industri di masa depan.