近年來,生成式AI技術快速發展,但單純依靠增加數據和算力提升AI效能的傳統方法已逼近瓶頸。 Downcodes小編獲悉,多位頂尖AI科學家指出,AI領域正從規模擴張時代轉向專注於突破性創新的新階段。這項轉變意味著AI發展將更重視模型品質的提升,而非單純追求規模的擴大。新的技術路徑和方法正在被探索和應用,為AI領域的未來發展帶來了新的機會和挑戰。
隨著生成式AI的快速發展,業界對更大即更好的傳統認知正在轉變。多位頂尖AI科學家近期表示,單純透過增加資料量和算力來提升AI效能的方法已接近瓶頸,新的技術突破方向正在顯現。
Safe Superintelligence和OpenAI的共同創辦人Ilya Sutskever最近發表觀點,認為傳統預訓練方法已進入效能平台期。這項論點格外引人注目,因為正是他早期倡議的大規模預訓練方法催生了ChatGPT。如今,他表示AI領域已從規模擴張時代邁入奇蹟和發現時代。
目前大模型訓練面臨多重挑戰:動輒數千萬美元的訓練成本、系統複雜度帶來的硬體故障風險、漫長的測試週期,以及資料資源和能源供應的限制。這些問題促使研究人員開始探索新的技術路徑。
其中,測試時計算(test-time compute)技術受到廣泛關注。這種方法允許AI模型在使用過程中即時產生和評估多個方案,而不是直接給出單一答案。 OpenAI研究員Noam Brown打了個形象的比方:讓AI在一盤撲克牌中思考20秒,效果堪比將模型規模和訓練時間擴大10萬倍。
目前,包括OpenAI、Anthropic、xAI和DeepMind在內的多家頂尖AI實驗室都在積極開發各自的技術版本。 OpenAI已在其最新模型o1中應用了這項技術,首席產品長Kevin Weil表示,透過這些創新方法,他們看到了大量提昇模型效能的機會。
業內專家認為,這種技術路線的轉變可能重塑整個AI產業的競爭格局,並從根本上改變AI公司對各類資源的需求結構。這標誌著AI發展正在進入一個更注重品質提升而非單純規模擴張的新階段。
新的技術突破為AI產業帶來了新的發展機遇,也對未來的AI發展方向提出了新的思考。 Downcodes小編相信,在未來的發展中,AI領域將持續湧現更多創新技術,推動AI技術朝向更深層發展,最終造福人類社會。