Bangun masa depan kecerdasan buatan dengan kerangka tata kelola keamanan
Penulis:Eve Cole
Waktu Pembaruan:2024-11-22 11:00:02
Dengan pesatnya perkembangan ilmu pengetahuan dan teknologi, kecerdasan buatan telah menjadi salah satu kekuatan utama yang mendorong kemajuan sosial. Namun, seiring dengan semakin meluasnya skenario penerapan kecerdasan buatan, tantangan dan risiko keamanan yang dihadapinya menjadi semakin kompleks. Pada tanggal 9 September, pada forum utama Pekan Publisitas Keamanan Siber Nasional 2024, Komite Teknis Standardisasi Keamanan Siber Nasional merilis "Kerangka Tata Kelola Keamanan Intelijen Buatan" versi 1.0 (selanjutnya disebut "Kerangka") , yang tentunya memberikan solusi terhadap permasalahan zaman ini. Keamanan adalah prasyarat untuk pembangunan. Risiko endogen seperti keamanan algoritma model, keamanan data, dan keamanan sistem, serta risiko keamanan aplikasi dalam domain jaringan, domain nyata, domain kognitif, dan domain etis, mungkin tampak seperti masalah kecil, namun dapat memicu reaksi berantai dan menyebabkan dampak serius. Misalnya, di Korea Selatan baru-baru ini, teknologi deepfake digunakan untuk menghasilkan informasi palsu, yang mengancam ketertiban sosial dan privasi pribadi. Tentunya, dalam menghadapi teknologi kecerdasan buatan yang berubah dengan cepat, kita tidak hanya perlu memperhatikan perkembangan teknologi itu sendiri, tetapi juga mempertimbangkan faktor-faktor sosial, etika, hukum, dan lainnya, serta menggunakan kerangka kerja yang komprehensif untuk memandu kecerdasan buatan. tata kelola keamanan intelijen. Perhatikan lebih dekat "Kerangka" ini, yang dibagi menjadi empat bagian utama: risiko keamanan, tindakan pencegahan teknis, langkah-langkah manajemen komprehensif, dan pedoman pengembangan dan penerapan yang aman. Kerangka ini tidak hanya memperjelas prinsip-prinsip dasar tata kelola keamanan kecerdasan buatan, tetapi juga memperjelas persyaratan bagi pengembang algoritme model kecerdasan buatan, Peraturan keselamatan untuk berbagai entitas seperti penyedia layanan, pengguna di bidang utama, dan masyarakat memberikan pedoman teknis dasar dan kerangka kerja untuk mendorong pengembangan yang sehat dan penerapan standar kecerdasan buatan. Perlu disebutkan secara khusus bahwa “Kerangka” ini mengedepankan prinsip tata kelola “inklusivitas, kehati-hatian, dan memastikan keselamatan.” Dinyatakan dengan jelas bahwa pengembangan dan inovasi didorong, dan sikap inklusif terhadap penelitian, pengembangan, dan penerapan kecerdasan buatan diadopsi. Pada saat yang sama, prinsip keselamatan dipatuhi dengan ketat, dan tindakan diambil tepat waktu terhadap risiko-risiko tersebut membahayakan keamanan nasional, kepentingan sosial masyarakat, serta hak dan kepentingan masyarakat yang sah. Harus dikatakan bahwa hal ini tidak hanya memberikan ruang yang cukup untuk eksplorasi bebas teknologi kecerdasan buatan, tetapi juga membangun firewall yang kokoh terhadap kemungkinan risiko. Seperti yang dikatakan orang dahulu, "Orang bijak berubah seiring waktu, dan orang bijak berubah sesuai keadaan." Tata kelola kecerdasan buatan juga perlu cermat dan santai. Dengan memperjelas peraturan keselamatan dan standar teknis, memandu perkembangan industri kecerdasan buatan yang sehat tidak hanya akan membantu meningkatkan daya saing industri kecerdasan buatan di negara saya secara keseluruhan, namun juga akan menyumbangkan kearifan Tiongkok dan solusi Tiongkok terhadap pengembangan kecerdasan buatan global. Tentu saja, peluncuran Kerangka Kerja ini hanyalah langkah pertama. Tata kelola keamanan kecerdasan buatan memerlukan partisipasi bersama dari pemerintah, perusahaan, lembaga penelitian ilmiah, dan masyarakat. Misalnya, departemen pemerintah harus memperkuat pengawasan untuk melindungi pengembangan kecerdasan buatan yang aman; perusahaan harus meningkatkan investasi dalam penelitian dan pengembangan teknologi untuk meningkatkan keamanan dan keandalan lembaga penelitian ilmiah harus melakukan penelitian mendalam mengenai masalah keamanan kecerdasan buatan untuk memberikan solusi terhadap permasalahan praktis. Dukungan intelektual juga harus meningkatkan kesadaran keselamatan, menggunakan produk kecerdasan buatan dengan benar, dan bersama-sama menciptakan lingkungan pengembangan kecerdasan buatan yang aman, andal, adil, dan transparan. Teknologi berorientasi pada manusia. Dalam gelombang kecerdasan buatan, kita harus memiliki keberanian untuk menaiki gelombang dan kebijaksanaan untuk bersiap menghadapi hari hujan. Kini, dengan membangun kerangka tata kelola keamanan yang baik, kita jelas lebih percaya diri dalam menghadapi tantangan yang ditimbulkan oleh kecerdasan buatan dan bersama-sama bergerak menuju masa depan kecerdasan buatan yang lebih aman dan berkelanjutan.