如何讓人工智慧實現認知正義
作者:Eve Cole
更新時間:2024-11-22 17:54:01
近幾年,人工智慧在許多行業都有應用,成為人類的「好幫手」。但在這過程中,也出現了各種各樣的問題。其中,人工智慧系統基於不良的數據來源和有缺陷的演算法設計產生錯誤的“知識”,且沒有對所輸出內容進行價值判斷的能力,無法承擔相應認知責任,導致系統性的認知偏差,是一個比較突出的問題。從科技倫理角度分析,這違反了認知正義的原則。所謂認知正義,是指在知識生成、傳播和獲取過程中,確保所有個體和群體的聲音都能被公平地聽取和理解,並且有平等的機會被轉化為人類的公共知識。過去,知識生成主要依賴人類個體的知覺、記憶、推理和證詞。然而,隨著人工智慧的超速迭代,尤其是會話式人工智慧的廣泛應用,傳統的知識生成和傳播方式正迎來重大轉變。現今的人工智慧不僅善於蒐集資訊和執行任務,更是一項能夠產生和傳播知識的“認知技術”,被用來處理認知內容(如命題、模型、數據)並執行認知操作(如統計分析、模式識別、預測、推理和模擬)。基於數據和演算法的“機器知識”挑戰了過去基於經驗和專業判斷的人類知識,導致認知“碎片化”,破壞了傳統人類知識系統的認知正義。如今,生成式人工智慧已開始全面嵌入所有可能對認知、決策進行技術性替代的場景和社會過程之中。面對人工智慧在知識生成中對認知正義的挑戰,如何讓人工智慧更聰明?如何讓其成為提升認知的幫手,確保科技向善?筆者認為,需從提升資料品質、改進演算法設計、優化人機協同和加強倫理治理等維度著手。負責任的演算法設計是實現認知正義的核心架構。人工智慧作為一種強大的認知技術,透過資料探勘和統計分析來識別資訊的模式和趨勢,參與人類公共知識的產生。由於演算法主要關注在訓練資料中頻繁出現的資訊模式,而不夠普遍或統計上不夠強大的資料往往會被忽視和排除,從而無法得到演算法的充分理解和適當回應。依賴統計頻率的演算法設計構成了一種特定的“認知盲從”,進而導致部分群體的聲音被系統性邊緣化。這種設計上的缺陷不僅限制了演算法的認知能力,也加劇了社會中的不平等和認知壓迫,破壞認知正義。 「盲從」行為背後的根源,是演算法的設計和訓練過程缺乏對不同群體文化背景的理解。因此,在我們常談及的演算法透明性和可解釋性之外,符合認知正義要求的演算法設計也應兼顧涉及不同社群的認知多樣性。有品質的數據供給是實現認知正義的基礎設施。造成人工智慧破壞認知正義的另一個重要誘因是數據品質。大數據是智慧科技的認知基礎和決策基礎,可以更清晰直觀地呈現人類社會生活各方面的特徵和趨勢,但與傳統人類公共知識不同,數據不為人們普遍共享。具體來說,哪些數據可以被收集起來並用於分析,這些數據將如何被分類提取,它們最終服務於誰,這些問題都變得模糊不清,導致數據品質參差不齊。演算法的訓練資料往往來自網路的大型資料庫和社區,而這些資料很可能包含偏見和歧視。人工智慧的知識生成,需確保資料的來源可靠、內容多樣,對資料進行去偏處理,還需對資料保持持續監測和更新,以因應社會文化變化帶來的新問題。有品質的數據供給,才能使人工智慧系統在多元文化和複雜社會結構中提供更精準的知識和決策支援。大範圍的人機協作是實現認知正義的有效手段。從腦機介面中的訊號轉譯,到智慧醫療決策、AI for Science等人機聯合行動,不同層面的人機協作都涉及人類知識與機器知識的傳遞、解釋、融合等認知過程。鑑於人機各自典型的認知特徵,大範圍、合理化的「人機認知勞動分工」將有效避免更多的人機認知偏差。例如,在科學研究中可以如此分工:人類設定目標、提出假設和解釋結果,並負責提供創造性思維、臨場決策、倫理判斷以及對非結構化問題的直覺理解;而人工智慧處理大量結構化數據、進行模式識別和預測分析,提供未被注意的模式和關聯。在這種協作中,人工智慧更成為啟發新想法的“夥伴”,而不是產生錯誤知識的“機器”。高水準的倫理治理是實現認知正義的製度支撐。認知正義要求多元的知識生成、平等的知識獲取、無偏的知識傳播和負責的知識使用,這些都需要高水準的人工智慧倫理治理。於企業而言,應在演算法設計中考慮不同社會群體的需求和視角,對演算法進行持續風險監測和價值評估;也應探索人工智慧倫理眾包模式,鼓勵不同背景的研究者和使用者參與人工智能倫理風險的研判中,及時化解倫理風險。於政府而言,應積極鼓勵私人資料向公共資料轉化,加速公共資料面向全社會開放共享,擴展資料多樣性、強化資料可靠性;也應尋求應對人工智慧潛在倫理風險的社會解決方案,建立涵蓋前瞻性預見、即時性評估和系統性調整的敏捷治理機制。