谷歌近日更新了其生成式AI的使用條款,對「高風險」領域(如醫療保健)的AI應用進行了明確規定。新條款允許客戶在這些領域使用Google的生成式AI進行自動化決策,但必須有人工監督。此舉在AI領域引發關注,因為它涉及AI在高風險決策中的應用,以及對潛在偏見和倫理問題的考量。谷歌此舉在某種程度上回應了社會對AI應用的擔憂,並反映了其在平衡AI技術應用和風險管控之間的努力。
Google(Google)最近更新了其生成式AI的使用條款,明確指出客戶可以在醫療保健等“高風險”領域部署其生成式AI工具進行“自動化決策”,但前提是必須有人工監督。根據Google週二發布的最新版《生成式AI禁止使用政策》,客戶可以使用Google的生成式AI做出可能對個人權利產生「重大不利影響」的「自動化決策」。只要有人工以某種形式進行監督,客戶就可以使用Google的生成式AI來決定就業、住房、保險、社會福利和其他「高風險」領域的事項。在AI領域,自動化決策指的是AI系統基於事實資料和推論資料所做的決策。例如,一個系統可能會自動決定是否批准貸款申請,或篩選求職者。先前,Google的條款草案暗示全面禁止在高風險自動化決策中使用該公司的生成式AI。但Google告訴TechCrunch,只要有人工監督,客戶始終可以使用其生成式AI進行自動化決策,即使是高風險應用也不例外。 「對於所有高風險領域,我們的人工監督要求始終存在於我們的政策中,」谷歌發言人在透過電子郵件聯繫時表示,「我們正在重新分類[條款中的]一些項目,並更明確地列出一些例子,以使客戶更清楚地了解。例如,OpenAI禁止將其服務用於與信貸、就業、住房、教育、社會評分和保險相關的自動化決策。 Anthropic允許其AI在法律、保險、醫療保健和其他高風險領域用於自動化決策,但前提是必須由「合格的專業人員」監督,並且要求客戶揭露他們正在為此目的使用AI。影響個人的自動化決策AI受到了監管機構的密切關注,他們對這項技術可能造成的偏見結果表示擔憂。研究表明,例如,用於批准信貸和抵押貸款申請的AI可能會延續歷史歧視。非營利組織人權觀察呼籲禁止「社會評分」系統,該組織認為這可能會破壞人們獲得社會安全支持的機會,損害他們的隱私,並以帶有偏見的方式對他們進行畫像。在歐盟的《人工智慧法案》中,高風險AI系統(包括做出個人信貸和就業決定的系統)面臨最嚴格的監管。這些系統的提供者必須在資料庫中註冊,執行品質和風險管理,僱用人工監督員,並向相關部門報告事件,以及其他要求。在美國,科羅拉多州最近通過了一項法律,要求AI開發人員披露有關「高風險」AI系統的信息,並發布總結系統功能和局限性的聲明。同時,紐約市禁止雇主使用自動化工具篩選候選人的就業決定,除非該工具在前一年內接受偏見審計。此次Google澄清AI使用條款,顯示了該公司在AI應用監管方面的態度。允許高風險領域自動化決策,但又強調人工監督的重要性,這不僅體現了AI技術應用的潛力,也反映了對潛在風險的警覺。
谷歌對AI使用條款的更新,在強調人工監督的同時,也反映出科技公司在AI治理上面臨的挑戰與探索。如何在AI技術快速發展的脈絡下,平衡創新與風險,將是未來需要持續關注的重要議題。