Googleは最近、生成AIの利用規約を更新し、医療や雇用などの高リスク分野での自動意思決定に顧客が自社の生成AIツールを使用できるようにしたが、ただし人間の監督が必要だった。この動きは、高リスク分野への AI の適用と関連する監督に関する懸念について業界での議論を引き起こしました。 Googleの動きは、一か八かの自動意思決定に対してより厳しい制限を設けている競合他社のOpenAIやAnthropicとは対照的だ。この最新情報では、世界規模での AI 規制の緊急の必要性と、AI イノベーションと潜在的なリスクのバランスをとるという課題も強調されています。
Googleは最近、生成AIの利用規約を更新し、人間の監督が必要な場合に限り、医療や雇用などの「高リスク」分野での「自動意思決定」に顧客が同社の生成AIツールを使用することを明示的に許可した。この変更は、生成 AI の使用を禁止する同社の新たに発表されたポリシーに反映されています。
画像出典注:画像はAIにより生成され、画像認証サービスプロバイダMidjourney
更新されたポリシーの下では、顧客は監督のもとでGoogleの生成AIを利用し、個人の権利に「重大な悪影響」を与える可能性のある自動決定を行うことができる。これらの高リスク分野には、雇用、住宅、保険、社会福祉などが含まれます。以前の条項はリスクの高い自動意思決定を全面的に禁止しているように見えたが、実際には最初から人間の監督下でそのような意思決定に生成AIを使用することを認めていたとGoogleは述べた。
Googleの広報担当者はメディアに対し、「人による監督の要件は常に当社のポリシーに存在しており、リスクの高い領域をすべてカバーしている。われわれは一部の用語を再分類し、ユーザーが理解しやすいようにいくつかの例をより明確に列挙しただけだ」と述べた。
Google のアプローチと比較して、OpenAI や Anthropic などの Google の主な競合他社は、一か八かの自動意思決定に関してより厳しい規制を設けています。 OpenAI は、信用、雇用、住宅、教育、社会的スコアリング、および保険に関連する自動決定にそのサービスを使用することを禁止しています。 Anthropic は、法律、保険、医療などの高リスク分野で AI による自動意思決定を許可していますが、これは「資格のある専門家」の監督下でのみであり、顧客はそのような意思決定に AI を使用することを明確に通知する必要があります。
自動意思決定のための AI システムに関して、規制当局は、そのようなテクノロジーが偏った結果をもたらす可能性があると懸念を表明しています。たとえば、ローンや住宅ローンの申請承認において、AI が歴史的な差別を永続させる可能性があることが研究で示されています。
ヒューマン・ライツ・ウォッチと他の非営利団体は、「社会的スコアリング」システムは人々の社会保障へのアクセスを脅かし、プライバシーを侵害し、偏ったプロファイリングを生み出す可能性があると主張し、特にその禁止を求めている。
EUでは、個人信用や雇用決定に関わるものを含む高リスクAIシステムは、AI法に基づく最も厳しい監督に直面している。これらのシステムのプロバイダーは、データベースへの登録、品質管理とリスク管理の実施、人間の監督者の雇用、関連当局へのインシデントの報告などを行う必要があります。
米国では、コロラド州が最近、AI開発者に「高リスク」AIシステムに関する情報を開示し、システムの機能と制限の概要を公表することを義務付ける法律を可決した。一方、ニューヨーク市は、過去1年以内にツールがバイアス監査を受けていない限り、雇用主が候補者を選別するために自動ツールを使用することを禁止している。
ハイライト:
Google はリスクの高い分野での生成 AI の使用を許可していますが、人間の監督が必要です。
OpenAI や Anthropic などの他の AI 企業は、リスクの高い意思決定に対してより厳しい制限を設けています。
各国の規制当局は、偏った結果を防ぐために、自動化された意思決定のための AI システムを検討しています。
Google による生成 AI の利用規約の更新は、AI の倫理と規制に関する広範な議論を引き起こし、世界中の政府や機関も、安全で責任ある開発を確保するために AI テクノロジーをより適切に規制する方法を積極的に模索しています。将来的には、リスクの高い分野での AI の適用は、より厳格な審査と監督に直面することになります。