Meta telah merilis kerangka kebijakan risiko AI mutakhir baru, yang bertujuan untuk mengurangi risiko model AI mutakhir dan mengambil langkah-langkah kontrol yang sesuai berdasarkan tingkat risiko. Kerangka kerja membagi model AI menjadi dua kategori: risiko tinggi dan risiko kunci, dan merumuskan strategi yang sesuai untuk tingkat yang berbeda, seperti menghentikan pembangunan, membatasi hak akses, dll. Langkah ini bertujuan untuk meningkatkan keamanan dan transparansi pengembangan AI dan mencegah ancaman potensial seperti proliferasi senjata biologis dan penipuan ekonomi.
Meta baru-baru ini merilis kerangka kerja kebijakan risiko baru yang bertujuan mengevaluasi dan mengurangi risiko yang ditimbulkan oleh model AI mutakhir dan berhenti mengembangkan atau membatasi pelepasan sistem ini jika perlu. Kerangka kerja, yang disebut Frontier AI Framework, menguraikan bagaimana meta akan membagi model AI menjadi dua kategori: risiko tinggi dan risiko kritis, dan mengambil langkah-langkah yang sesuai untuk mengurangi risiko menjadi "level yang dapat ditoleransi."
Dalam kerangka kerja ini, risiko kritis didefinisikan sebagai mampu secara unik memfasilitasi pelaksanaan skenario ancaman tertentu. Risiko tinggi berarti bahwa model dapat secara signifikan meningkatkan kemungkinan mencapai skenario ancaman, tetapi tidak secara langsung memfasilitasi eksekusi. Skenario ancaman meliputi proliferasi senjata biologis, yang kemampuannya sebanding dengan agen biologis yang diketahui, dan kerusakan ekonomi yang meluas pada individu atau perusahaan yang disebabkan oleh penipuan dan penipuan jangka panjang skala besar.
Untuk model yang memenuhi ambang batas risiko kritis, meta akan menghentikan pengembangan dan akses terbuka ke model hanya untuk beberapa ahli, sambil menerapkan perlindungan keamanan untuk mencegah peretas atau pelanggaran data yang layak secara teknis dan komersial. Untuk model risiko tinggi, meta membatasi akses dan mengambil langkah-langkah mitigasi risiko untuk mengurangi risiko ke tingkat sedang, memastikan bahwa model tidak secara signifikan meningkatkan kemampuan eksekusi skenario ancaman.
Meta mengatakan proses penilaian risikonya akan melibatkan para ahli multidisiplin dan pemimpin perusahaan internal untuk memastikan bahwa pendapat tentang semua aspek dipertimbangkan sepenuhnya. Kerangka kerja baru ini hanya berlaku untuk model dan sistem canggih perusahaan, yang kemampuannya cocok atau melampaui tingkat teknis saat ini.
Meta berharap bahwa dengan berbagi metode pengembangan sistem AI canggih, ia dapat meningkatkan transparansi dan mempromosikan diskusi luar dan penelitian tentang penilaian AI dan berisiko ilmu kuantitatif. Pada saat yang sama, perusahaan menekankan bahwa proses pengambilan keputusan untuk evaluasi AI akan terus berkembang dan meningkat dengan pengembangan teknologi, termasuk memastikan bahwa hasil lingkungan pengujiannya benar-benar dapat mencerminkan kinerja model dalam operasi aktual.
Poin -Poin Kunci:
Meta meluncurkan kerangka kebijakan risiko baru untuk menilai dan mengurangi risiko dari model AI mutakhir.
Model risiko utama akan dihentikan dan akses ahli akan dibatasi;
Proses penilaian risiko akan melibatkan para ahli multidisiplin, berusaha untuk meningkatkan transparansi dan ilmiah.
Kerangka kerja baru Meta menetapkan standar keamanan yang lebih tinggi untuk pengembangan dan penyebaran model AI masa depan, yang mencerminkan komitmennya terhadap pengembangan AI yang bertanggung jawab. Ini tidak hanya membantu mengurangi potensi risiko teknologi AI, tetapi juga memberikan pengalaman dan referensi yang berharga bagi industri.