米国国防総省は、軍事分野での人工知能の適用を積極的に調査しており、Openaiや人類などのAI企業と協力しています。この協力は、致命的な武器にAIテクノロジーを使用していない原則を厳密に観察しながら、国防省の効率を改善することを目的としています。この記事では、軍事決定におけるAIの役割と、AI独立兵器の決定力に関する倫理的紛争を調査し、ペンタゴンのAIテクノロジーの適用の慎重な態度と厳格な監督を示しています。
人工知能技術の急速な発展に伴い、Openaiや人類のような大手AI開発者は、米軍と協力するために一生懸命働いて、五角形の効率を改善しながらAI技術が致命的な武器に使用されないことを保証しようとしています。ペンタゴンとAIの公式のRadha Plumb博士の主な数字は、TechCrunchとのインタビューで、現在のAIは武器では使用されていないと述べましたが、認識、追跡、評価を脅かす上で大きな利点をもたらします。
写真ソースの備考:写真はAIによって生成され、写真承認サービスプロバイダーMidjourney
Plumb博士は、ペンタゴンが「殺害チェーン」の実装を加速していると述べました。これには、複雑なセンサー、プラットフォーム、武器システムを含む脅威の識別、追跡、排除が含まれます。世代AIは、殺害チェーンの計画と戦略段階でその可能性を示しています。彼女は、AIが脅威に直面したときに司令官が迅速かつ効果的に迅速に対応するのを助けることができると指摘しました。近年、ペンタゴンとAIの開発者との関係は、徐々に密接に近づいています。 2024年、Openai、人類、メタなどの企業は使用ポリシーを緩和し、アメリカのintelligence報機関と防衛機関がAIシステムを使用できるようにしましたが、これらのAI技術は依然として人間を傷つける目的を使用することを禁止されていました。この変更により、AIと防衛請負業者の間の協力が迅速に行われました。たとえば、メタは11月にLockchid MartinやBooz Allenなどの企業と協力して、Llama AIモデルを国防分野に適用しました。人類は、パランティアと同様の協力に達しました。これらの協力の特定の技術的詳細は不明ですが、Plumb博士は、計画段階でのAIの適用は、多くの主要な開発者の使用ポリシーと矛盾する可能性があると述べました。 AI武器が意思決定を行う能力を持つべきかどうかについて、業界は激しい議論を始めました。 AndurilのCEO Palmer Luckeyは、米軍には独立兵器システムの調達に長い歴史があると述べました。しかし、Plumb博士はこれを否定し、いずれにせよ、誰かが力を使用する決定に参加しなければならないことを強調しました。彼女は、自動化システムとは無関係に生と死の決定を下すという考えはあまりにも二重であり、実際の状況ははるかに複雑であると指摘しました。ペンタゴンのAIシステムは、人々と機械の間の協力です。 ポイント:AIは、軍事決定の効率性を促進するために、ペンタゴンの識別と評価の脅威に大きな利点を提供しています。 AI開発者とペンタゴンとの協力はますます近づいていますが、AIテクノロジーが人間を傷つけることを許可しないことを常に主張しています。 AIの武器が生と死の決定を持つべきかどうかについての議論は継続され、国防総省は常に人々の参加があることを強調しています。全体として、AIは軍事分野で幅広いアプリケーションの見通しを持っていますが、その倫理的および安全保障上の問題も注意して扱う必要があります。国家安全保障を確保しながらAIテクノロジーの乱用を避ける方法は、将来的に注意を払い、解決する必要がある重要な問題になるでしょう。