圖片來源:西班牙《國家報》網站
說到黑盒子,許多人會聯想到飛機上用來記錄飛行數據的設備或充滿懷舊氣息的小劇場。然而,在人工智慧(AI)領域,黑盒子同樣是個不可忽視的重要術語。
西班牙《國家報》指出,當AI神經網路運作時,即便是最資深的研究人員也對其內部運作一無所知。這裡討論的無關生物學,而是AI演算法,特別是那些基於深度學習、模仿神經元之間連結的演算法。這些系統宛如黑盒子,資料科學家、學術界頂尖人才,以及榮獲諾貝爾獎的OpenAI和Google的工程師們,也難以窺探其內部奧秘。
模型與資料具有不透明性
《科學美國人》雜誌報道稱,AI黑盒子指的是內部運作方式對使用者完全不可見的AI系統。使用者可以向這些系統輸入資訊並獲得輸出,但無法檢查其程式碼或了解產生輸出的邏輯。
機器學習作為AI的主要分支,是ChatGPT等生成式AI系統的基石。機器學習包含演算法、訓練資料和模型3個核心部分。演算法是一系列程式指令,在機器學習中,演算法透過大量訓練數據,學會辨識數據中的模式。當機器學習演算法完成訓練,其產物就是機器學習模型,這也是使用者實際使用的部分。
機器學習系統這3個部分中,任何一個都可能被隱藏起來,也就是被置於黑盒子中。通常情況下,演算法是公開的。但為了保護智慧財產權,AI軟體開發者通常會將模型或訓練資料放進黑盒子。
模型架構複雜到難以解釋
儘管許多AI演算法背後的數學原理已被人們充分理解,但由這些演算法所構成的網路所產生的行為,卻難以捉摸。
ChatGPT、Gemini、Claude、Llama以及任何如DALL-E這樣的影像產生器,以及任何依賴神經網路的系統,包括臉部辨識應用和內容推薦引擎,都面臨這樣的問題。
相較之下,其他AI演算法,如決策樹或線性迴歸(常用於醫學和經濟等領域),則更具可解釋性。它們的決策過程易於理解和視覺化。工程師可順著決策樹的分支,清楚地看到特定結果是如何得出的。
這種清晰性至關重要,因為它為AI注入了透明度,並向演算法的使用者提供了安全保障。值得注意的是,歐盟《人工智慧法案》強調了擁有透明且可解釋系統的重要性。然而,神經網路本身的架構卻阻礙了這種透明性。要理解這些演算法的黑盒子問題,人們必須想像一個由相互連結的神經元或節點所構成的網路。
西班牙國家研究委員會AI研究所教授胡安·安東尼奧解釋道,當你把資料輸入網絡,節點中的值會觸發一系列計算。資訊從第一批節點開始傳播,以數值形式傳遞到後續節點,每個節點都會計算一個數字,並將其發送到所有連接,同時考慮每個連接的權重(即數值)。接收到這些資訊的新節點會再計算另一個數字。
值得注意的是,目前深度學習模型包含數千到數百萬個參數。這些參數代表了訓練後的節點和連接數量,數量龐大且變化多端,因此很難手動得出有意義的方程式。
據業內人士估計,GPT-4擁有近1.8兆個參數。根據這項分析,每個語言模型將使用約2200億個參數。這意味著,每當提出一個問題時,就有2,200億個變數可能影響演算法的回應。
科技公司嘗試打開黑盒子
系統不透明性讓糾正偏見變得更難,也加劇了不信任感。目前,AI領域的主要參與者意識到了這一局限性,並正在積極進行研究,以更好地了解其模型的工作原理。例如,OpenAI用神經網路觀察分析另一神經網絡,Anthropic研究節點連接和訊息傳播電路等。
解碼黑盒子對語言模型大有裨益,能避免錯誤推理和AI產生誤導訊息,解決答案不一致問題。然而,由於不了解網路內部機制,科技公司通常會讓模型進行大量訓練,透過測試後即發布產品。這種方法也可能有問題,如GoogleGemini在初發佈時就產生了錯誤的圖像。
與黑盒子相對的一個概念是玻璃盒。 AI玻璃盒是指它的演算法、訓練資料和模型都可以被任何人看到。解碼黑盒子的最終目標是保持對AI的控制,特別是將其部署在敏感領域時。假設一個機器學習模型已經對人類的健康狀況或財務狀況做出了診斷,人們會希望該模型是黑盒子還是玻璃盒?答案顯而易見。這不僅是對演算法內部運作方式的高度關注,也不僅是出於科學的好奇心,更有對使用者隱私的保護。