Meta baru-baru ini mengumumkan bahwa mereka akan membuka rangkaian model kecerdasan buatan Llama kepada lembaga pemerintah AS dan kontraktor terkait untuk aplikasi keamanan nasional. Langkah ini dimaksudkan untuk menanggapi kekhawatiran bahwa kecerdasan buatan “terbuka” dapat dieksploitasi oleh musuh asing dan menunjukkan dukungan Meta terhadap keamanan nasional. Editor Downcodes akan memberikan interpretasi terperinci atas insiden ini, menganalisis motivasi di baliknya, potensi dampaknya, dan diskusi yang dihasilkan mengenai keamanan kecerdasan buatan.
Meta Corporation baru-baru ini mengumumkan bahwa mereka akan membuka rangkaian model kecerdasan buatan Llama kepada lembaga pemerintah AS dan kontraktor terkait untuk mendukung aplikasi keamanan nasional.
Langkah ini bertujuan untuk menghilangkan persepsi bahwa AI “terbuka” dapat memberdayakan musuh asing. “Kami dengan senang hati mengonfirmasi bahwa Llama akan tersedia bagi lembaga-lembaga pemerintah AS, termasuk lembaga-lembaga yang berfokus pada program pertahanan dan keamanan nasional, serta mitra sektor swasta yang mendukung upaya ini,” kata Meta dalam sebuah posting blog.
Untuk mempromosikan proyek ini, Meta telah bermitra dengan sejumlah perusahaan ternama, antara lain Accenture, Amazon Web Services, Andiel, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI, dan Snowflake . Perusahaan-perusahaan ini akan membantu menerapkan model Llama pada berbagai misi keamanan nasional.
Misalnya, Oracle menggunakan Llama untuk memproses dokumentasi perawatan pesawat, dan Scale AI menyempurnakan Llama untuk tugas keamanan nasional tertentu. Lockheed Martin berencana memberikan Llama kepada pelanggan pertahanannya untuk membantu mereka menghasilkan kode komputer dan sebagainya.
Secara umum, kebijakan Meta melarang pengembang menggunakan Llama untuk proyek yang berhubungan dengan militer, perang, atau spionase. Namun, dalam kasus ini, Meta memutuskan untuk membuat pengecualian dan mengizinkan lembaga dan kontraktor yang terkait dengan pemerintah AS untuk menggunakan Llama, selain lembaga serupa di Inggris, Kanada, Australia, dan Selandia Baru.
Perlu dicatat bahwa ada laporan baru-baru ini bahwa beberapa peneliti yang terkait dengan Tentara Pembebasan Rakyat Tiongkok telah menggunakan model Llama versi lama (Llama2) untuk mengembangkan chatbot yang berfokus pada militer yang dirancang untuk mengumpulkan dan memproses intelijen guna menyediakan pengambilan keputusan operasional. membuat. informasi. Meta menjawab bahwa penggunaan model tersebut "tidak sah" dan melanggar kebijakan penggunaan yang dapat diterima perusahaan. Namun, insiden tersebut semakin memicu diskusi luas mengenai pro dan kontra dari kecerdasan buatan terbuka.
Dengan penerapan kecerdasan buatan dalam intelijen militer, pengawasan dan pengintaian, risiko keamanan terkait secara bertahap mulai muncul. Sebuah studi dari AI Now Institute menunjukkan bahwa sistem kecerdasan buatan yang ada mengandalkan data pribadi yang dapat diekstraksi dan dijadikan senjata oleh musuh. Pada saat yang sama, sistem kecerdasan buatan juga mempunyai masalah seperti bias dan ilusi, dan saat ini belum ada solusi yang efektif. Para peneliti merekomendasikan pengembangan sistem AI khusus yang terisolasi dari model “komersial”.
Meskipun Meta mengklaim bahwa AI terbuka dapat mempercepat penelitian pertahanan dan mendukung kepentingan ekonomi dan keamanan AS, militer AS masih berhati-hati dalam mengadopsi teknologi ini. Sejauh ini, hanya Angkatan Darat yang telah menerapkan kecerdasan buatan generatif.
Langkah Meta telah memicu diskusi luas mengenai masalah etika dan keselamatan penerapan kecerdasan buatan di bidang pertahanan, dan dampak jangka panjangnya masih harus dilihat. Editor Downcodes akan terus memperhatikan perkembangan terkini di bidang ini dan memberikan analisis dan laporan yang lebih mendalam kepada pembaca.