Meta は最近、Llama シリーズの人工知能モデルを国家安全保障アプリケーション向けに米国政府機関および関連請負業者に公開すると発表しました。この動きは、その「オープンな」人工知能が外国の敵によって悪用される可能性があるという懸念に対応し、国家安全保障に対するメタの支持を示すことを目的としていました。 Downcodes の編集者は、この事件の詳細な解釈を提供し、その背後にある動機、潜在的な影響、そして人工知能の安全性に関する議論の結果を分析します。
Meta Corporation は最近、国家安全保障アプリケーションをサポートするために、Llama シリーズの人工知能モデルを米国政府機関および関連請負業者に公開すると発表しました。
この動きは、その「オープン」AIが外国の敵対者に力を与える可能性があるという認識を払拭することを目的としている。 「防衛および国家安全保障プログラムに重点を置く政府機関を含む米国政府機関や、これらの取り組みを支援する民間部門のパートナーがLlamaを利用できることを確認できてうれしく思う」とメタ氏はブログ投稿で述べた。
このプロジェクトを推進するために、Meta は Accenture、Amazon Web Services、Andiel、Booz Allen、Databricks、Deloitte、IBM、Leidos、Lockheed Martin、Microsoft、Oracle、Palantir、Scale AI、Snowflake を含む多くの有名企業と提携しています。 。これらの企業は、ラマ モデルをさまざまな国家安全保障ミッションに適用するのに役立ちます。
たとえば、Oracle は航空機の保守文書の処理に Llama を使用しており、Scale AI は特定の国家安全保障タスクに合わせて Llama を微調整しています。ロッキード・マーティンは、防衛顧客にコンピュータコードなどの生成を支援するためにLlamaを提供する予定だ。
一般に、Meta のポリシーでは、開発者が軍事、戦争、またはスパイ関連のプロジェクトに Llama を使用することを禁止しています。ただし、この場合、メタ社は例外を設け、英国、カナダ、オーストラリア、ニュージーランドの同様の機関に加え、米国政府に関連する機関や請負業者にもラマの使用を許可することを決定した。
中国人民解放軍に関係する一部の研究者が、古いバージョンのラマ モデル (Llama2) を使用して、作戦決定を行うための情報を収集および処理するように設計された軍事に特化したチャットボットを開発したという最近の報告があることは注目に値します。情報を作ること。メタ社は、モデルの使用は「無許可」であり、同社の利用規約に違反していると回答した。しかし、この事件は、オープン人工知能の是非についての幅広い議論をさらに引き起こしました。
軍事情報、監視、偵察における人工知能の適用により、関連する安全保障上のリスクが徐々に表面化しています。 AI Now Institute の調査によると、既存の人工知能システムは、敵によって抽出され兵器化される可能性のある個人データに依存していることが示されています。一方で、人工知能システムには偏見や錯覚などの問題もあり、現時点では有効な解決策はありません。研究者らは、「商用」モデルから隔離された専用の AI システムを開発することを推奨しています。
メタ氏は、オープンAIは防衛研究を加速し、米国の経済的および安全保障上の利益を促進できると主張しているが、米軍はこれまでのところ、生成型人工知能を導入しているのは陸軍だけである。
Meta の動きは、防衛分野における人工知能アプリケーションの倫理と安全性の問題について広範な議論を引き起こしましたが、その長期的な影響はまだわかりません。 Downcodes の編集者は、この分野の最新の動向に今後も注目し、より詳細な分析とレポートを読者に提供していきます。