Metaは最近、国家安全保障アプリケーションをサポートするために、Llamaシリーズの人工知能モデルを米国政府機関とその請負業者に開設すると発表しました。この動きは、外国人の敵によって搾取される可能性があり、国家安全保障の分野での技術的貢献を実証する可能性があるというオープンAIに関する懸念に対応することを目的としています。メタは、ラマモデルの適用は、違法または有害な目的に使用されないことを保証するために、厳格な規範と制限の対象となると強調しました。この記事では、メタの動き、パートナー、およびトリガーされたオープンな人工知能のセキュリティに関する議論の背景について詳しく説明します。
Metaは最近、国家安全保障アプリケーションをサポートするために、米国政府機関および関連請負業者にLlamaシリーズの人工知能モデルを開設すると発表しました。
この動きの目的は、外の世界がAIが外国のライバルを燃やす可能性があるという認識を排除することを目的としています。 「ラマが防衛と国家安全保障に焦点を当てたものを含む米国政府機関、およびこれらの取り組みをサポートする民間部門のパートナーを含む米国政府機関を提供することを確認できることを嬉しく思います」とメタはブログの投稿で述べました。
このプロジェクトを促進するために、MetaはAccenture、Amazon Web Services、およびBoss Allen、Databricks、Deloitte、IBM、Ledos、Rockheed Martin、Microsoft、Oracle、Palantir、Scale AI、Snowflakeなど、いくつかの有名企業と協力しています。これらの企業は、Llamaモデルをさまざまな国家安全保障課題に適用するのに役立ちます。
たとえば、OracleはLlamaを使用して航空機のメンテナンス文書を処理していますが、スケールAIは特定の国家安全保障課題のためにLlamaを微調整しています。 Lockheed Martinは、コンピューターコードなどを生み出すのを支援するために、防衛顧客にLlamaを提供する予定です。
通常、Metaのポリシーにより、開発者はLlamaを軍事、戦争、またはスパイ関連のプロジェクトに適用することを禁止しています。ただし、この場合、メタは、米国政府に関連する機関や請負業者によってラマを使用できるようにすることで例外を作成することを決定し、英国、カナダ、オーストラリア、ニュージーランドなどの国の同様の機関にも適用できます。
中国人民解放軍に関連する一部の研究者が、LLAMAモデル(LLAMA2)の古いバージョンを使用して、インテリジェンスを収集および処理し、戦闘意思決定を提供するように設計された軍事中心のチャットボットを開発したことが報告されていることは注目に値します。情報。メタは、モデルの使用は「不正」であると答え、当社の許容可能な使用ポリシーに違反したと答えました。しかし、この事件は、オープンAIの利点と短所に関する広範な議論をさらに引き起こしました。
軍事情報、監視、偵察における人工知能の適用により、関連するセキュリティリスクが徐々に浮上しています。 AI Now Instituteの調査では、既存のAIシステムは、敵が抽出および武器化できる個人データに依存していることが示されています。同時に、人工知能システムにはバイアスや幻覚などの問題もあり、現在効果的な解決策はありません。研究者は、「ビジネス」モデルから分離された専用のAIシステムを開発することを推奨しています。
メタは、AIを開放することで防衛研究を加速し、米国の経済的および安全保障上の利益を促進できると主張していますが、米軍は依然としてこの技術の採用に慎重であり、これまでのところ陸軍のみが生成的人工知能を展開してきました。
キーポイント:
メタは、国家安全保障アプリケーションをサポートするために、ラマモデルを米国政府および防衛請負業者に開設します。
多くの有名な企業がメタと協力して、防衛分野でのラマモデルの適用を共同で促進しています。
軍事用途におけるオープンな人工知能のセキュリティリスクは議論を引き起こし、研究者は専門モデルの開発を求めています。
メタの動きは、技術開発と国家安全保障の促進との微妙なバランスをとっていますが、人工知能技術の適用における倫理的およびセキュリティの課題も強調しています。オープンAIの将来の開発には、技術革新とセキュリティ保証の間の最良の道を見つける必要があります。