Departemen Pertahanan AS secara aktif menjajaki penerapan kecerdasan buatan di bidang militer dan bekerja sama dengan perusahaan AI terkemuka seperti OpenAI dan Anthropic. Kolaborasi ini bertujuan untuk meningkatkan efisiensi Departemen Pertahanan dengan tetap berpegang pada prinsip tidak menggunakan teknologi AI untuk senjata mematikan. Artikel ini mengeksplorasi peran AI dalam pengambilan keputusan militer, serta kontroversi etika mengenai kekuatan pengambilan keputusan senjata otonom AI, dan menunjukkan sikap hati-hati Pentagon dan pengawasan ketat terhadap penerapan teknologi AI.
Seiring dengan kemajuan pesat teknologi kecerdasan buatan, pengembang AI terkemuka seperti OpenAI dan Anthropic bekerja keras untuk bekerja sama dengan militer AS, berupaya meningkatkan efisiensi Pentagon sambil memastikan bahwa teknologi AI mereka tidak digunakan untuk senjata mematikan. Radha Plumb, kepala digital dan AI Pentagon, mengatakan dalam sebuah wawancara dengan TechCrunch bahwa AI saat ini tidak digunakan dalam senjata, tetapi AI memberikan keuntungan signifikan bagi Departemen Pertahanan dalam identifikasi, pelacakan, dan penilaian ancaman.
Catatan sumber gambar: Gambar dihasilkan oleh AI, dan penyedia layanan otorisasi gambar Midjourney
Dr Plumb menyebutkan bahwa Pentagon sedang mempercepat pelaksanaan "rantai pembunuhan", sebuah proses yang melibatkan identifikasi, pelacakan dan netralisasi ancaman, yang melibatkan sensor, platform, dan sistem senjata yang kompleks. AI generatif menunjukkan potensinya dalam tahap perencanaan dan strategi rantai pembunuhan. Dia mencatat bahwa AI dapat membantu komandan merespons dengan cepat dan efektif ketika menghadapi ancaman. Dalam beberapa tahun terakhir, Pentagon semakin dekat dengan pengembang AI. Pada tahun 2024, perusahaan seperti OpenAI, Anthropic, dan Meta melonggarkan kebijakan penggunaannya untuk memungkinkan badan intelijen dan pertahanan AS menggunakan sistem AI mereka, namun tetap melarang penggunaan teknologi AI tersebut untuk tujuan yang merugikan manusia. Pergeseran ini menyebabkan perluasan kerja sama yang pesat antara perusahaan AI dan kontraktor pertahanan. Meta, misalnya, pada bulan November bermitra dengan perusahaan-perusahaan termasuk Lockheed Martin dan Booz Allen untuk menerapkan model AI Llama ke sektor pertahanan. Anthropic telah mencapai kerjasama serupa dengan Palantir. Meskipun rincian teknis spesifik dari kolaborasi ini tidak jelas, Dr. Plumb mengatakan bahwa penerapan AI pada tahap perencanaan mungkin bertentangan dengan kebijakan penggunaan beberapa pengembang terkemuka. Ada diskusi hangat di industri mengenai apakah senjata AI harus memiliki kemampuan untuk membuat keputusan hidup dan mati. CEO Anduril Palmer Luckey menyebutkan bahwa militer AS memiliki sejarah panjang dalam membeli sistem senjata otonom. Namun, Dr. Plumb menampik hal ini, dan menekankan bahwa bagaimanapun juga, seseorang harus dilibatkan dalam pengambilan keputusan untuk menggunakan kekerasan. Dia menunjukkan bahwa gagasan sistem otomatis yang membuat keputusan hidup dan mati secara mandiri terlalu biner, dan kenyataannya jauh lebih kompleks. Sistem AI Pentagon merupakan kolaborasi antara manusia dan mesin, dengan para pemimpin senior terlibat dalam proses pengambilan keputusan. Sorotan: AI memberi Pentagon keuntungan signifikan dalam mengidentifikasi dan menilai ancaman, sehingga mendorong pengambilan keputusan militer yang lebih efisien. Pengembang AI semakin erat bekerja sama dengan Pentagon, namun mereka selalu menekankan bahwa teknologi AI tidak digunakan untuk merugikan manusia. Diskusi terus berlanjut mengenai apakah senjata AI harus memiliki kemampuan pengambilan keputusan hidup dan mati, dengan Pentagon menekankan bahwa manusia selalu terlibat.Secara keseluruhan, AI memiliki prospek yang luas untuk diterapkan di bidang militer, namun masalah etika dan keamanannya juga perlu ditangani dengan hati-hati. Bagaimana menghindari penyalahgunaan teknologi AI sekaligus menjamin keamanan nasional akan menjadi isu penting yang memerlukan perhatian dan penyelesaian berkelanjutan di masa depan.