生成式AI的快速發展帶來了便利,但也帶來了假訊息氾濫的問題。為了解決這個問題,微軟推出了一款名為Correction的新工具,旨在修正AI生成內容中的錯誤訊息。 Downcodes小編將帶你深入了解這款工具的原理、應用以及它所面臨的挑戰。
在人工智慧快速發展的今天,生成式AI雖然帶來了許多便利,但其產生的假訊息也成為了一個不容忽視的問題。針對這項挑戰,科技巨頭微軟近日推出了一項名為Correction的新工具,旨在修正AI產生內容中的假訊息。
作為微軟Azure AI內容安全API的一部分,Correction目前處於預覽階段。該工具能夠自動標記可能存在錯誤的文本,例如錯誤引述的公司季度財報摘要,並將其與可信資料進行對比,以糾正這些錯誤。值得注意的是,這項技術適用於所有文字產生的AI模型,包括Meta的Llama和OpenAI的GPT-4。
微軟發言人表示,Correction透過結合小型語言模型和大型語言模型,確保產生的內容與真實文件一致。他們希望這個新功能能夠幫助醫療等領域的開發者提高回應的準確性。
然而,專家們對此持謹慎態度。華盛頓大學博士生Os Keyes認為,試圖消除生成AI的虛幻就像試圖從水中去除氫一樣,這是技術運作的基本組成部分。事實上,文本生成模型之所以會產生虛假訊息,是因為它們實際上並不知道任何事情,只是基於訓練集進行猜測。一項研究發現,OpenAI的ChatGPT在回答醫療問題時錯誤率高達50%。
微軟的解決方案是透過一對交叉參考的編輯元模型來識別並修正這些虛假資訊。一個分類模型負責尋找可能的錯誤、虛構或不相關的文字片段,如果偵測到這些問題,會引入第二個語言模型,嘗試根據特定的基礎文件進行修正。
儘管微軟聲稱Correction可以顯著增強AI生成內容的可靠性和可信度,但專家們仍有疑慮。女王瑪麗大學研究員Mike Cook指出,即使Correction如宣傳所說那麼有效,也可能加劇AI的信任和可解釋性問題。該服務可能會讓使用者產生一種虛假的安全感,誤以為模型的準確性比實際更高。
值得一提的是,微軟在推出Correction時也暗藏商業算計。雖然這項功能本身是免費的,但檢測虛假資訊所需的基礎文件檢測功能每月有使用限制,超出部分需要收費。
微軟顯然承受著證明其AI投資價值的壓力。今年第二季度,該公司在AI相關的資本支出和設備上花費了近190億美元,但迄今為止,從AI中獲得的收入卻不多。最近,有華爾街分析師調低了微軟的股票評級,質疑其長期AI策略的可行性。
準確性和虛假資訊的潛在風險已成為企業在試點AI工具時的最大擔憂之一。 Cook總結道,如果這是一個正常的產品生命週期,生成AI仍然應該在學術研究和開發階段,繼續改進和理解其優缺點。然而,我們卻已經將其投放到多個產業。
微軟的Correction工具無疑是解決AI虛假資訊問題的嘗試,但它能否真正破解生成式AI的信任危機,仍有待時間的檢驗。在AI技術快速發展的同時,如何平衡創新與風險,將成為整個產業面臨的重要課題。
總而言之,微軟Correction工具的出現,標誌著業界對AI假訊息問題日益重視,但也引發了對AI可信度和商業模式的深入思考。未來,如何更好地利用AI技術,同時有效控制其風險,將是擺在所有人面前的重大挑戰。