Meta baru -baru ini mengumumkan bahwa mereka akan membuka serangkaian model intelijen buatan Llama ke lembaga pemerintah AS dan kontraktor mereka untuk mendukung aplikasi keamanan nasional. Langkah ini dimaksudkan untuk menanggapi kekhawatiran tentang AI terbuka yang berpotensi dieksploitasi oleh lawan asing dan menunjukkan kontribusi teknologinya di bidang keamanan nasional. Meta menekankan bahwa penerapan model LLAMA akan dikenakan norma dan pembatasan yang ketat untuk memastikan bahwa itu tidak digunakan untuk tujuan ilegal atau berbahaya. Artikel ini akan mengeksplorasi secara mendalam latar belakang langkah, mitra, dan diskusi tentang keamanan kecerdasan buatan terbuka yang telah dipicu.
Meta baru -baru ini mengumumkan bahwa mereka akan membuka serangkaian model intelijen buatan Llama ke lembaga pemerintah AS dan kontraktor terkait untuk mendukung aplikasi keamanan nasional.
Langkah ini bertujuan untuk menghilangkan persepsi bahwa dunia luar "terbuka" untuk AI -nya dapat memicu saingan asing. "Kami dengan senang hati mengkonfirmasi bahwa Llama akan menyediakan lembaga pemerintah A.S., termasuk yang berfokus pada pertahanan dan keamanan nasional, serta mitra sektor swasta yang mendukung upaya ini," kata Meta dalam sebuah posting blog.
Untuk mempromosikan proyek ini, Meta telah mencapai kerja sama dengan beberapa perusahaan terkenal, termasuk Accenture, Amazon Web Services, Andyr, Boss Allen, Databricks, Deloitte, IBM, Ledos, Lockheed Martin, Microsoft, Oracle, Palantir, Skala AI dan Snowflake. Perusahaan -perusahaan ini akan membantu menerapkan model LLAMA ke berbagai tugas keamanan nasional.
Misalnya, Oracle menggunakan Llama untuk memproses dokumen pemeliharaan pesawat, sementara skala AI menyempurnakan llama untuk tugas keamanan nasional tertentu. Lockheed Martin berencana untuk memberikan llama kepada pelanggan pertahanannya untuk membantu mereka menghasilkan kode komputer, dll.
Biasanya, kebijakan Meta melarang pengembang menerapkan LLAMA ke proyek militer, perang atau mata-mata. Namun, dalam hal ini, Meta memutuskan untuk membuat pengecualian dengan mengizinkan Llama untuk digunakan oleh lembaga dan kontraktor yang terkait dengan pemerintah A.S., dan juga berlaku untuk lembaga serupa di negara -negara seperti Inggris, Kanada, Australia, dan Selandia Baru.
Perlu dicatat bahwa telah dilaporkan bahwa beberapa peneliti yang terkait dengan Tentara Pembebasan Rakyat Tiongkok menggunakan versi lama model LLAMA (LLAMA2) untuk mengembangkan chatbot yang berfokus pada militer yang dirancang untuk mengumpulkan dan memproses intelijen dan memberikan pengambilan keputusan tempur. informasi. Meta menjawab bahwa penggunaan model itu "tidak sah" dan melanggar kebijakan penggunaan perusahaan yang dapat diterima. Namun, insiden ini lebih lanjut memicu diskusi luas tentang kelebihan dan kekurangan AI terbuka.
Dengan penerapan kecerdasan buatan dalam intelijen militer, pengawasan dan pengintaian, risiko keamanan terkait secara bertahap muncul. Sebuah studi dari AI Now Institute menunjukkan bahwa sistem AI yang ada bergantung pada data pribadi yang dapat diekstraksi dan dipersenjatai oleh musuh. Pada saat yang sama, sistem kecerdasan buatan juga memiliki masalah seperti bias dan halusinasi, dan saat ini tidak ada solusi yang efektif. Para peneliti merekomendasikan pengembangan sistem AI khusus yang diisolasi dari model "bisnis".
Meskipun Meta mengklaim bahwa membuka AI dapat mempercepat penelitian pertahanan dan mempromosikan kepentingan ekonomi dan keamanan A.S., militer AS masih berhati -hati tentang adopsi teknologi ini, dan hanya tentara yang telah mengerahkan kecerdasan buatan generatif sejauh ini.
Poin -Poin Kunci:
Meta membuka model LLAMA kepada pemerintah AS dan kontraktor pertahanan untuk mendukung aplikasi keamanan nasional.
Banyak perusahaan terkenal telah bekerja sama dengan meta untuk bersama-sama mempromosikan penerapan model LLAMA di bidang pertahanan.
Risiko keamanan kecerdasan buatan terbuka dalam aplikasi militer telah memicu diskusi, dan para peneliti telah menyerukan pengembangan model khusus.
Langkah Meta telah mencapai keseimbangan yang rumit antara mempromosikan pengembangan teknologi dan keamanan nasional, tetapi juga menyoroti tantangan etis dan keamanan dalam penerapan teknologi kecerdasan buatan, yang perlu diperhatikan secara terus -menerus dan ditanggapi dengan hati -hati. Pengembangan AI terbuka di masa depan membutuhkan menemukan jalur terbaik antara inovasi teknologi dan jaminan keamanan.