Alibaba Cloud Bailian プラットフォームは、Qwen2.5-Turbo 百万長文モデルを発表しました。このモデルは、Tongyi Qianwen チームによって開発され、英語 100 万個に相当する最大 100 万トークンの超長文を処理する機能を備えています。単語または 150 万文字。このモデルは、長文検索、長文評価セットRULER、および実シーンに近い長文タスクにおいて多次元でGPT-4を上回る優れた結果を達成しました。さらに、短文ベンチマークテストでも良好なパフォーマンスを示し、これまでの同様のモデルを大幅に上回りました。
Alibaba Cloud Bailian プラットフォームは最近、Qwen2.5-Turbo 100 万長文テキスト モデルの開始を発表しました。Qwen2.5-Turbo モデルは、Tongyi Qianwen チームによって開発され、最大 100 万トークンの超長文の処理をサポートしています。 100万の英語単語または150万の中国語文字に相当します。
この新しいバージョンのモデルは、長文検索タスクで 100% の精度を達成し、長文評価セット RULER で 93.1 のスコアを獲得し、GPT-4 を上回りました。 LV-Eval や LongBench-Chat など、実際のシーンに近い長文タスクでは、Qwen2.5-Turbo はほとんどの点で GPT-4o-mini を上回ります。短いテキストのベンチマーク テストでも、Qwen2.5-Turbo は非常に優れたパフォーマンスを示し、コンテキスト長 100 万トークンの以前のオープンソース モデルを大幅に上回りました。
Qwen2.5-Turbo モデルは、小説の深い理解、大規模なコードアシスタント、複数の論文の読解など、幅広い応用シナリオを備えています。10 冊の小説、150 時間のスピーチ、または 30,000 行を処理できます。コードを一度に。推論速度の面では、Tongyi Qianwenチームはスパース・アテンション機構によって計算量を約12.5倍に圧縮し、100万トークンのコンテキストを処理する際の最初の単語の戻り時間を4.9分から68秒に短縮し、4.3倍の高速化を達成した。
Alibaba Cloud Bailian プラットフォームは、すべてのユーザーに Qwen2.5-Turbo API を直接呼び出す機能を提供し、1,000 万トークンの期間限定ギフトを提供します。 100万トークンのその後の使用コストはわずか0.3元です。
現在、Alibaba Cloud Bailian プラットフォームは、Qwen、Llama、ChatGLM を含む 200 以上の国内外の主流オープンソースおよびクローズドソースの大規模モデルを立ち上げており、ユーザーが RAG アプリケーションを直接呼び出し、トレーニング、微調整したり、作成したりすることをサポートしています。
Qwen2.5-Turbo モデルの登場は、長文処理テクノロジーの大幅な進歩を示し、より強力な AI ツールをあらゆる階層に提供します。 Alibaba Cloud Bailian プラットフォームのオープン戦略により、より多くの開発者がこの高度なテクノロジーを簡単に適用し、共同で人工知能分野の開発を促進することができます。また、コストが低いため、使用の敷居がさらに低くなります。