Downcodes の編集者は、Alibaba Cloud Bailian プラットフォームが最近 Qwen2.5-Turbo 百万長文モデルをリリースしたことを知りました。このモデルは Tongyi Qianwen チームによって開発され、最大 100 万トークンの超長文を処理する能力があります。長文テキスト処理 この分野では大きな進歩が見られました。このブレークスルーにより、ユーザーはより強力なテキスト処理機能を実現し、AI アプリケーションの境界を拡大します。 Qwen2.5-Turbo モデルは、複数の長文評価において GPT-4 を上回り、精度と効率における利点を実証し、より強力なサービスを低コストで提供します。
この新しいバージョンのモデルは、長文検索タスクで 100% の精度を達成し、長文評価セット RULER で 93.1 のスコアを獲得し、GPT-4 を上回りました。 LV-Eval や LongBench-Chat など、実際のシーンに近い長いテキスト タスクでは、Qwen2.5-Turbo はほとんどの点で GPT-4o-mini を上回ります。短いテキストのベンチマーク テストでも、Qwen2.5-Turbo は非常に優れたパフォーマンスを示し、コンテキスト長 100 万トークンの以前のオープンソース モデルを大幅に上回りました。
Qwen2.5-Turbo モデルは、小説の深い理解、大規模なコードアシスタント、複数の論文の読解など、幅広い応用シナリオを備えています。10 冊の小説、150 時間のスピーチ、または 30,000 行を処理できます。コードを一度に。推論速度の面では、Tongyi Qianwenチームはスパース・アテンション機構によって計算量を約12.5倍に圧縮し、100万トークンのコンテキストを処理する際の最初の単語の戻り時間を4.9分から68秒に短縮し、4.3倍の高速化を達成した。
Alibaba Cloud Bailian プラットフォームは、すべてのユーザーに Qwen2.5-Turbo API を直接呼び出す機能を提供し、1,000 万トークンの期間限定ギフトを提供します。 100万トークンのその後の使用コストはわずか0.3元です。
現在、Alibaba Cloud Bailian プラットフォームは、Qwen、Llama、ChatGLM を含む 200 以上の国内外の主流オープンソースおよびクローズドソースの大規模モデルを立ち上げており、ユーザーが RAG アプリケーションを直接呼び出し、トレーニング、微調整したり、作成したりすることをサポートしています。
Qwen2.5-Turbo モデルの登場は、長文処理テクノロジの大きな進歩を示し、その広範なアプリケーションの見通しと効率的なパフォーマンスにより、あらゆる分野にさらなる可能性がもたらされます。 Alibaba Cloud Bailian プラットフォームのオープン戦略は、開発者に便利なアクセスを提供し、AI テクノロジーの開発と応用を促進します。 Downcodes の編集者は、このモデルに基づくさらに革新的なアプリケーションを楽しみにしています。