最近、GoogleはAIの原則を大幅に調整し、武器や監視のためにAIを開発しないという以前のコミットメントをキャンセルしました。この動きは、Googleの更新された公開AI原則ページに由来し、「追求しないアプリケーション」部分を削除し、メディアと一般にAIアプリケーションの指示に疑問を投げかけます。この動きが米国とイスラエル軍とのクラウドサービス契約に署名した後、この動きは、軍事および監視の分野におけるテクノロジー企業の役割についての人々の懸念を悪化させました。
最近、Googleは、武器や監視のために人工知能(AI)を開発しないという公式ウェブサイトから静かに約束を削除しました。この変更はブルームバーグによって最初に報告され、この動きは外の世界からの広範な注目と議論を引き起こしました。 Googleは最近、パブリックAI原則ページを更新し、「We Will Not Cuscure」と呼ばれる部品を削除しましたが、この部分は先週も表示されます。
メディアの問い合わせに直面して、Googleは「責任あるAI」について「Tech Crunch」に関する新たにリリースされたブログ投稿を提供しました。この記事では、Googleは次のように述べています。「企業、政府、組織は、人間を保護し、グローバルな発展を促進し、国家安全保障を支援できるAIを作成するために協力すべきだと考えています。」
Googleの更新されたAIの原則は、会社が「事故または有害な結果を減らし、不当な偏見を回避する」ことにコミットし、会社の開発が「国際法と人権の一般的な受け入れの原則」と一致することを保証することを強調しました。これは、AIアプリケーションに関するGoogleの位置が変化している可能性があることを示唆しています。
近年、米国とイスラエル軍と署名されたGoogleのクラウドサービス契約は、内部の従業員からの抗議を引き起こしました。 GoogleはAIテクノロジーが人間に害を及ぼすために使用しないことを繰り返し強調していますが、米国国防総省のAI長は最近、「テクノロジークランチ」とのインタビューで、一部の企業のAIモデルが実際に戦闘決定を加速したと述べました。米軍のプロセス。この発言は、Google AIの将来の適用について疑問に満ちています。
Googleのこの変化は、軍事および監視の分野におけるテクノロジー企業の役割に関する考えを引き起こしました。人工知能技術の倫理的問題の注目が高まっているという文脈では、Googleのこの新しい尺度は特に顕著に思えます。一般の人々と従業員は、会社がこの繊細な分野で責任あるイメージをどのように維持しているか、そしてビジネス上の関心と道徳的責任の関係のバランスをとる方法に細心の注意を払っています。
AIテクノロジーの継続的な進歩と適用により、Googleの立場の変更は業界全体に大きな影響を与える可能性があり、将来の科学的技術倫理と責任感を再検討します。
Googleの動きは、テクノロジー企業とAI倫理の社会的責任とAI業界への影響について広く議論しています。 AI技術開発と応用の倫理的規範の策定と監督もより緊急です。