谷歌近期更新了其生成式AI的使用條款,讓客戶在醫療、就業等高風險領域使用其生成式AI工具進行自動決策,但必須有人工監督。此舉引發了業界對AI應用於高風險領域的討論,以及對相關監管的關注。谷歌此舉與其競爭對手OpenAI和Anthropic形成了對比,後者對高風險自動決策的限制更為嚴格。此更新也凸顯了全球對AI監管的迫切需求,以及在平衡AI創新與潛在風險之間的挑戰。
谷歌近期更新了其生成式AI 的使用條款,明確允許客戶在“高風險” 領域,例如醫療和就業,使用其生成式AI 工具進行“自動決策”,前提是需要有人工監督。這項變更在公司最新發布的生成式AI 禁止使用政策中得以體現。
圖源備註:圖片由AI生成,圖片授權服務商Midjourney
根據更新後的政策,客戶可以在監督的情況下,利用Google的生成式AI 做出可能對個人權利產生「重大不利影響」 的自動決策。這些高風險領域包括就業、住房、保險、社會福利等。先前的條款似乎對高風險的自動決策做出了全面禁止的規定,但谷歌公司表示,其實從一開始就允許在有人的監督下使用生成式AI 進行此類決策。
谷歌發言人回應媒體時表示:“人類監督的要求在我們的政策中一直存在,涵蓋所有高風險領域。我們只是重新分類了一些條款,並更明確地列舉了一些例子,以便用戶理解。”
與Google的做法相比,Google的主要競爭對手如OpenAI 和Anthropic 在高風險自動決策方面有更嚴格的規定。 OpenAI 禁止使用其服務進行與信用、就業、住房、教育、社會評分和保險相關的自動決策。而Anthropic 允許其AI 在法律、保險、醫療等高風險領域進行自動決策,但僅在「合格專業人士」 的監督下,並要求客戶明確告知其使用AI 進行此類決策。
關於自動決策的AI 系統,監管機構對此表示關注,認為這類技術可能導致結果偏差。例如,研究顯示,AI 在貸款和抵押申請審批中可能會延續歷史歧視。
人權觀察等非營利組織特別呼籲禁止「社會評分」 系統,認為這威脅到人們獲取社會安全的機會,並可能侵犯隱私,進行有偏見的畫像。
在歐盟,根據《AI 法案》,高風險AI 系統,包括涉及個人信用和就業決策的系統,面臨最嚴格的監管。這些系統的提供者必須在資料庫中註冊,進行品質和風險管理,僱用人類監督者,並向相關部門報告事件等。
在美國,科羅拉多州最近通過了一項法律,要求AI 開發者披露關於「高風險」 AI 系統的信息,並發布系統能力和局限性的摘要。同時,紐約市禁止雇主使用自動工具篩選候選人,除非該工具在過去一年內經過偏見審計。
劃重點:
谷歌允許在高風險領域使用生成式AI,但需手動監督。
其他AI 公司如OpenAI 和Anthropic 對高風險決策有更嚴格限制。
各國監管機構對自動決策的AI 系統進行審查,以防結果偏差。
谷歌對生成式AI使用條款的更新,引發了關於AI倫理和監管的廣泛討論,各國政府和機構也在積極探索如何更好地規制AI技術,以確保其安全和負責任地發展。未來,AI在高風險領域的應用將面臨更嚴格的審查和監管。