阿里雲發布了全新升級的大語言模型Qwen2.5-Turbo,其上下文長度突破百萬Token,處理能力遠超同類產品。這代表著長文本處理能力的巨大飛躍,使用者可以輕鬆處理相當於10部《三體》的小說或3萬行程式碼。該模型在多個基準測試中表現出色,尤其在長文本理解方面超越了GPT-4,並且在保持短文本處理精準性的同時,實現了極高的推理速度和極低的成本。
阿里雲重磅推出全新升級的Qwen2.5-Turbo大語言模型,其上下文長度突破至驚人的100萬Token。這相當於什麼概念?相當於10部《三體》,150小時的語音轉錄或3萬行代碼的容量!這回可真是「一口氣讀完十本小說」不是夢了!
Qwen2.5-Turbo模型在Passkey Retrieval任務中實現了100%的準確率,並且在長文本理解能力方面超越了GPT-4等同類模型。該模型在RULER長文本基準測試中取得了93.1的高分,而GPT-4的得分僅為91.6,GLM4-9B-1M的得分則為89.9。
除了超長文本處理能力,Qwen2.5-Turbo也兼具短文處理的精準性,在短文本基準測試中,其表現表現與GPT-4o-mini和Qwen2.5-14B-Instruct模型相當。
透過採用稀疏注意力機制,Qwen2.5-Turbo模型將處理100萬Token的首次token時間從4.9分鐘縮短至68秒,實現了4.3倍的推理速度提升。
同時,處理100萬Token的費用僅0.3元人民幣,與GPT-4o-mini相比,在相同成本下可處理3.6倍的內容。
阿里雲為Qwen2.5-Turbo模型準備了一系列演示,展示了其在深度理解長篇小說、程式設計輔助和多篇論文閱讀等方面的應用。例如,用戶上傳了包含69萬Token的《三體》三部曲中文小說後,模型成功地用英文概括了每部小說的情節。
使用者可以透過阿里雲模型工作室的API服務、HuggingFace Demo或ModelScope Demo體驗Qwen2.5-Turbo模型的強大功能。
阿里雲表示,未來將繼續優化模型,提升其在長序列任務中的人類偏好對齊,並進一步優化推理效率,降低運算時間,並嘗試推出更大更強的長上下文模型。
官方介紹:https://qwenlm.github.io/blog/qwen2.5-turbo/
線上示範:https://huggingface.co/spaces/Qwen/Qwen2.5-Turbo-1M-Demo
API文件:https://help.aliyun.com/zh/model-studio/getting-started/first-api-call-to-qwen
Qwen2.5-Turbo憑藉其強大的長文本處理能力和低廉的成本,為大語言模型應用開闢了新的可能性,未來發展值得期待。 更多資訊請訪問提供的連結。