確保人工智慧安全、可靠、可控,有利於人類文明進步,是人工智慧發展必須解決的重要議題。黨的二十屆三中全會《決定》作出「建立人工智慧安全監管制度」「完善生成式人工智慧發展與管理機制」等重要部署。如何強化人工智慧治理,有效防範化解人工智慧發展帶來的各類安全風險,不斷提升人工智慧安全監管的製度化、法治化程度?本期學術版圍繞著這些問題進行探討。
習近平總書記指出:「人工智慧是新一輪科技革命和產業變革的重要驅動力量,將對全球經濟社會發展和人類文明進步產生深遠影響。」生成式人工智慧是指基於演算法、模型、規則生成文字、圖片、聲音、影片、程式碼等內容的技術。在海量資料與強大算力支撐下,聽得懂、說得出、能互動的生成式人工智慧快速迭代升級,呈現出良好互動性、高度通用性、智慧生成性等特徵,並正與各行各業形成更剛性、高頻、泛在、深度的聯結,也導致其潛在風險更真實。黨的二十屆三中全會《決定》科學把握人工智慧發展規律和特點,提出“建立人工智慧安全監管制度”“完善生成式人工智慧發展和管理機制”,體現了更好統籌發展和安全的客觀需要,為推動人工智慧領域的技術進步、產業發展與安全保障指引前進方向。
生成式人工智慧在技術運行上可分為三個階段,即前置性學習訓練及人工標註輔助演算法升級的準備階段,輸入資料進行演算法處理得出生成物的運算階段,生成物進入社會加以運用的生成階段。我們要深入分析生成式人工智慧的運行機制,掌握各階段安全風險形成與發展的特徵,運用法治手段加強系統性治理,確保生成式人工智慧所蘊含的巨大力量始終在法治軌道上發揮作用。
在生成式人工智慧的準備階段,資料安全風險易發多發、較為突出。生成式人工智慧透過資料訓練、資料處理分析來提煉資訊、預測趨勢。這就必須對資料進行適當分類,確立不同類型資料的利用模式和保護方式,以妥善應對相關資料安全風險,避免資料違規利用或不當洩露,產生侵權方面的糾紛。例如,在政務處理流程中形成的政務資料是數位政府的核心要素。生成式人工智慧為了得出相對準確的結論,不可避免地要收集分析政務數據。應明確生成式人工智慧取得和利用政務資料的法律規則,既滿足利用政務資料服務社會的需求,有力支持人工智慧政務服務大模型開發、訓練和應用,提高公共服務和社會治理智慧化水準;又規範其加工方式,避免利用政務資料所得的成果侵害個人權益、破壞社會公共秩序。對於個人資料而言,生成式人工智慧透過組合分析挖掘其潛在價值,其對個人資料的收集利用及其成果可能對公民權利造成侵害。在實踐中,生成式人工智慧傾向於過度收集個人資料以提升結論準確性,例如,透過分析醫療健康資料來挖掘個人行蹤、預測個人生活軌跡。為此,必須堅持依法收集,按照技術所需的最小範圍收集個人數據,並設定合理的數據處理深度,避免過度挖掘潛在資訊。綜上,應將分類分級的資料安全監管要求嵌入生成式人工智慧的準備階段,避免資料安全風險演變為具體的法益損害後果。
在生成式人工智慧的運算階段,內生於人工智慧大模型的演算法偏見風險值得警惕。生成式人工智慧對於資料的分析和處理主要透過演算法模型。有別於傳統演算法模型,生成式人工智慧在進行機器學習的同時,也會以大量的人工標註來校正機器學習的結論,推動人工智慧演化。但「機器學習+人工標註」作為演算法技術內核,也會使人類的意志與偏好所產生的影響比單純的機器學習更大。個人偏好的影響疊加在演算法模型本身的偏見之上,將導致演算法偏見的負面效應倍增,而演算法偏見的產生則更加難以追溯和預防。防範化解演算法偏誤風險,應根據演算法偏誤的產生原理與產生場域進行針對性治理。要將法律規範的要求深度嵌入生成式人工智慧的演算法模型之中,推動技術向善,消除演算法偏見,確保合理利用生成式人工智慧演算法並分配算力資源。基於技管結合理念,加強對演算法的全週期安全監管,將法律規範的要求落實到生成式人工智慧運作的整個流程。在設定演算法之初就要遵循相關法律規則與技術標準,落實「機器學習+人工標註」的規範要求,審查存在風險的演算法模組,更好發現生成式人工智慧演算法模型中的技術風險;當發現先天性演算法偏見時,依據法律要求從生成式人工智慧的演算法內部進行修正,確保修改後的演算法能正常運作;事後出現問題時,對人工智慧演算法進行溯源治理,實現精準歸責並加以修正,推動完善生成式人工智慧的演算法監管標準,填補事前預防審查的不足,以技術手段與法律手段並行做到發展與管理並重。
在生成式人工智慧的生成階段,存在著與生成物相關的智慧財產權風險、生成物濫用風險等多種風險。由於生成式人工智慧的智慧化程度很高,可以實現內容自動化編纂、智慧化潤飾加工、多模態轉換以及創造性生成,直接改變了內容的生產方式與供給模式,相較於以往的人工智慧系統產生了顛覆性變化,引發了生成式人工智慧的生成物智慧財產權歸屬、智慧財產權保護等問題。有的人認為生成式人工智慧生成物是資料演算法的結論,其本質上是計算與模仿,而非智力勞動,無法成為智慧財產權的客體。反對者則認為生成式人工智慧模擬人腦神經網路的構造來獲取與輸出數據,透過卷積神經網路控制自身的設計與製造,其具有獨創性與創新性的生成物應受知識產權法保護。同時,生成式人工智慧也增加了智慧財產權糾紛風險和保護難度,一些生成物可能含有侵犯他人智慧財產權的內容,或是經過加工等手段被包裝成個人擁有完全智慧財產權的原創作品,引發相關智慧財產權爭議。為及時化解相關問題,應對生成式人工智慧的技術模式、技術原理依照智慧財產權法的標準進行實質分析,若技術上需要人類意志介入,使生成物能產生獨創性與創新性,應賦予智慧財產權並明確其歸屬,強化生成式人工智慧領域智慧財產權的系統性保護;同時要合理確定對生成物智慧財產權保護的範圍,避免保護範圍無限擴張,妨礙生成式人工智慧的推廣運用與技術發展。也要加強對生成物濫用風險的治理。例如,要求作品清楚標識生成式人工智慧在作者創作中發揮作用的情況,加強對可能涉及違法犯罪的深度偽造、AI換臉等生成物的精準化、常態化監管,等等。
生成式人工智慧在社會應用中產生的擴散影響還有很多,除了上述風險還有許多其他類型的風險,例如加劇資訊不對稱、擴大數位落差、損害數位弱勢群體的利益等。要根據實際情況作出應對,盡量降低新技術對社會發展帶來的不良衝擊。
習近平總書記強調:「堅持以人為本、智能向善」。目前,人工智慧科技日新月異,既深刻影響改變人們的生產生活方式、加速了經濟社會發展進程,也對法律規範、道德倫理、公共治理等造成衝擊。其中,對隱私權、個人資訊安全等的威脅是值得關注的重要議題。黨的二十屆三中全會《決定》對「建立人工智慧安全監管制度」做出重要部署,保護隱私權和個人資訊安全是人工智慧安全監管的題中應有之義。必須加強人工智慧時代的隱私權保護,確保個人資訊安全。
人工智慧時代隱私權面臨嚴峻挑戰。隱私是自然人的私人生活安寧和不願為他人知曉的私密空間、私人活動、私密資訊。民法典規定:「自然人享有隱私權。任何組織或個人不得以刺探、侵擾、洩漏、公開等方式侵害他人的隱私權。」隱私權作為人格權的核心要素,是建構人格尊嚴的重要基礎。不被公開、不被知曉是隱私權的核心訴求。目前,人工智慧以悄無聲息的方式介入人們生產生活的各領域各方面各環節,產生智慧醫療、智慧交通、智慧推薦等眾多應用場景,科技本身存在的某些缺陷和規則的不完善,不可避免帶來侵害隱私權的問題。例如,非法收集和使用個人信息,利用分析這些個人信息頻繁推送所謂“個性化”的“精準廣告”,洩露個人信息給第三方,導致私人生活頻頻受到垃圾信息侵擾;利用個人信息進行“大數據殺熟”,實現“一客一價”的精準價格歧視,令公民遭受財產損失;已脫敏個人資訊被重新識別,因保護措施不當導致資料洩露,非法買賣個人資訊現象屢見不鮮,侵害個人資訊安全;借助個人資訊進行深度偽造,透過聲音模擬、AI換臉等手段,實施詐騙等違法犯罪行為;等等。這說明,侵害隱私權不僅侵犯了公民的人格尊嚴,也會造成其他嚴重社會後果。
去私密化技術特徵加劇個人資訊安全風險。以大數據為基礎的人工智慧在應用之初,許多人是抱著觀望、懷疑的心態看待這種新技術的。隨著人工智慧以擬人化的外在形式、個人化的服務提供、沉浸式的互動過程不斷改善用戶的產品體驗和心理感受,越來越多的人逐漸成為人工智慧的忠實用戶,享受著人工智慧為自己帶來的各種便利。隨著人機互動、萬物互聯的物聯網技術普及,智慧家庭、智慧辦公室、智慧工廠、智慧駕駛等人工智慧應用場景也不斷拓展,個人能夠以數位人的存在形式在數位空間提出需求、獲得服務,也在不知不覺中向人工智慧源源不斷地傳遞個人資訊。個人在數位空間留下的任何痕跡都被數位化,形成個人訊息,並作為人們「聯繫世界的介質」發揮重要功能。同時,人工智慧為了改善服務質量,也傾向於過度收集使用個人資訊。這都使得人工智慧具有鮮明的去私密化技術特徵。也正是在那些人工智慧使用者習以為常的個人資訊流動中,混合著公共資料和私人資料的大數據被挖掘、整合、分析、利用,人們難以憑自己的感官察覺到隱私權被侵害,個人資訊安全面臨更高的風險。
尊重個別選擇,堅持知情同意。不同的人對個人資料被知悉、被利用的接受程度不同,應尊重個人意願,科學合理地執行「知情同意」原則。知情同意原則包括知情和同意兩方面,同意必須以知情為前提,沒有充分的知情和理解,就不可能有真正意義上的同意。資訊、理解和自願,是知情同意原則的三個要素。在全面「知情」的基礎上,個人可以自主作出怎樣「同意」的意思表示。這需要在使用者使用人工智慧時,作出簡單易懂而又清晰明了的提示說明,徵得用戶對個人資訊收集使用的同意。如果個人資訊會在不同平台之間流動,需要將流動範圍、目標、使用邊界讓使用者知道。為了良好和流暢的使用者體驗,也可以提供使用者一次性或分階段進行授權的選擇。要告知用戶收集個人資訊的範圍、方式和用途以及與誰共享個人信息,用戶也應可以選擇隨時退出。在進行個人資訊分析時,應以彈跳窗或其他形式提示使用者註意並即時授權。設定資料生命週期、按時刪除個人資訊也是保護個人資訊安全的有效方式。
完善技術手段,確保智能向善。技術所導致的問題,要善於從技術層面確立解決問題的想法。人工智慧時代隱私權面臨挑戰,其直接的觸發因素是技術的演進。從分析式人工智慧到生成式人工智慧,人工智慧技術每一次迭代升級,都可能對隱私權帶來新的衝擊。因此,技術解決方案必須置於關鍵位置,應透過完善資料庫安全、核心資料加密、個人資料脫敏等技術,建立保護隱私權和個人資訊安全的防火牆。個人資訊一般會經過收集、儲存和使用三個階段,而這三個階段都可能有侵害隱私權和個人資訊安全的風險。應根據不同階段個人資訊所處的不同狀況,從技術上進行有效保護。在個人資訊收集階段,加強匿名化技術推廣運用。收集個人資訊雖然不可避免,但只要匿名化,不把個人資訊與身分對應,隱私權就不會受到侵害。個人資訊儲存階段,要完善加密技術。目前,資料儲存主要有資料庫儲存和雲端儲存兩種方式。外部入侵竊取和內部人員未經授權的查看、使用、洩漏是儲存階段個人資訊安全的主要威脅。若要強化資料加密,同時嚴格資料存取權限控制。個人資訊使用階段,要從技術上加強對個人資訊違法使用的即時介入、幹擾、阻斷,為隱私權和個人資訊安全多添一層保護。
隨著我國法律規則日益完善、保護力度持續加強,特別是民法典、個人資訊保護法對隱私權和個人資訊保護作出詳細規定,明確了個人資訊處理活動中權利和義務的邊界,人工智慧時代我國隱私權和個人資訊安全的法律保護必將邁上更高水平,為人工智慧健康發展、更好地造福人民提供堅強法律保障。
科技興則民族興,科技強則國家強。黨的十八大以來,我國高度重視人工智慧發展,積極推動網路、大數據、人工智慧和實體經濟深度融合,培育壯大智慧產業,加速發展新質生產力,為高品質發展提供新動能。習近平總書記指出:「要堅持促進發展和依法管理相統一,既大力培育人工智慧、物聯網、下一代通訊網路等新技術新應用,又積極利用法律法規和標準規範引導新技術應用。」習近平總書記的重要論述為我國人工智慧發展提供了根本遵循和行動指南。大力發展人工智慧,提升人工智慧安全治理水平,將黨的二十屆三中全會《決定》提出的「建立人工智慧安全監管制度」重要部署不折不扣貫徹好,準確掌握人工智慧發展動向,聚焦於人工智慧前沿技術及其帶來的風險挑戰,加強前瞻性思考,並不斷探索人工智慧治理的創新方案。
目前,生成式人工智慧開創了人機互動新範式,憑藉其強大的互動、理解和生成能力,為發展以大型自然語言模型為核心組件,集記憶、規劃和工具使用於一體,具備感知和行動能力的人工智慧體開闢了廣闊前景。人工智慧體已成為通用人工智慧最重要的前沿研究方向和科技企業競相佈局的新賽道。它以大型自然語言模型為“智慧引擎”,具有自主性、適應性和交互性特徵,可顯著提高生產效率,增強用戶體驗,提供超越人類能力的決策支持,已能夠應用於軟體開發、科學研究等多種真實場景。儘管大規模商業化落地仍在初步探索和孵化階段,但人工智慧體所代表的虛實融合、人機深度互動等趨勢對經濟社會發展具有重要引領意義。然而,由於技術局限,人工智慧體也可能引發複雜的、動態的、不可預見的風險與隱憂。
從設計邏輯來看,人工智慧體需要透過控制端獲得認知能力,透過感知端從周圍環境獲取和利用訊息,最終在行動端成為基於物理實體進行感知和行動的智慧系統。
在控制端,大型自然語言模型作為人工智慧體的“大腦”,透過學習大量數據形成知識,構成人工智慧體控制系統中的記憶模組,但其在生成內容的可靠性和準確性方面存在風險。例如,模型產生的內容可能不遵循資訊來源或與現實世界的真實情況不符,產生所謂「機器幻覺」;由於訓練資料中的人類偏見,影響人工智慧體的公平決策;等等。
在感知端,為充分理解具體情境下的顯性訊息和隱性訊息,準確感知人類意圖,人工智慧體將知覺範圍從純文字拓展到包括文字、視覺和聽覺模式在內的多模態領域。這雖然提升了決策能力,卻在整合和分析不同管道和類型的多來源資料時可能引發一系列隱私外洩和資料安全風險。例如,不當使用和分享人臉資訊、指紋、聲紋等高度個人化、具有永久性的生物特徵數據,導致長期甚至永久性的隱私風險。為更好地處理複雜任務,部署多個人工智慧體進行規劃、合作甚至競爭,以完成和提高任務績效的多智能體系統將成為主流和常態。多個人工智慧體的系統互動就可能引發不可預見的系統性安全風險。即使每個演算法在單獨操作時看似安全和合理,但組合和互動之後仍可能產生完全不同且難以預測的風險,並迅速演化升級。例如,在股票市場中,如果人工智慧被廣泛應用,多個演算法自動辨識股票價格微小變化,同時大量執行高頻交易進行套利,就可能引發股票市場閃崩的系統性安全事件。
在行動端,部署於真實實體環境的人工智慧體將可能以更為立體、擬人的形象呈現。與虛擬空間不同,現實空間依賴互動式學習方法,人工智慧體需要豐富的、全方位的資訊感知來觀察、學習和行動,透過基於回饋的學習優化能力,這可能對個人隱私構成全面性、侵入性和隱蔽性的風險。例如,解讀使用者的肢體語言並感知更複雜的使用者活動,未經使用者授權持續隱密地收集數據,一旦系統存在安全漏洞,可能引發巨大的資料安全風險。此外,隨著人工智慧體自主性不斷提升,不僅可能介入和影響人類的認知和情緒,也挑戰人類作為獨立決策者和獨立行動者的能力與地位。例如,有些聊天機器人在與使用者互動的過程中就出現了影響使用者情緒的輸出,有時是負面且具有操縱性的。
面對人工智慧體帶來的風險和挑戰,要讓人工智慧體的行為符合人類的意圖和價值觀,需要探索創新的治理方案,確保人工智慧安全監管制度實際管用。人工智慧體的發展正處於「從零到一」的關鍵期。治理方案應具備以不變應萬變的能力,確保此技術的發展與應用始終處於可控的軌道上。人工智慧體的開發、訓練、部署、運作和服務等環節經過高度專業化的分工,形成了複雜的分層結構。每一層都有不同的參與者、利害關係人和潛在風險因素,使人工智慧體具有「模組」化的產業鏈特質。因此,可以建構一個能夠涵蓋整個產業鏈和各個端層的模組化治理框架,從資料模組、演算法模組、模型架構等關鍵節點出發,設計對應的治理模組。例如在部署環節,就可根據應用場景和部署模式的特性,靈活選擇、協同組合不同的治理模組,建構與之相符的治理方案。模組化治理框架提供了一種具有可操作性的分解方法,透過將治理目標拆解為相對獨立但關聯耦合的治理模組,漸序推動治理體系形成,不僅提高了治理的靈活性和針對性,也能夠適應技術的快速迭代。在建構基於資料、演算法、模型和場景等維度的治理模組時,應以技術賦能監管,打造與人工智慧體模組化治理框架相適配的、智慧化的治理工具,從而彌合風險動態性與監管靜態性之間的張力,實現對特定高風險情境的精準化治理。
要建構面向人工智慧體的互動式治理生態。人工智慧體具有深度互動性、高度互聯性以及動態適應性。相應地,治理方式應超越傳統的以個人為中心的治理,推動形成廣泛互聯、多方參與、多層次協作的治理生態。其中,技術開發人員、營運維護人員等技術社群對於人工智慧體的治理將扮演至關重要的「吹哨者」角色。應較好發揮技術社群的監督優勢,在人工智慧企業內部建構有效的約束機制。也應積極提高廣大用戶的數位素養,增強其依法、安全、負責任使用人工智慧體的意識,實現與人工智慧體的良性交互,推動形成向上向善的運作狀態。