Downcodes의 편집자는 Alibaba Cloud Bailian 플랫폼이 최근 Qwen2.5-Turbo 백만 개의 긴 텍스트 모델을 출시했다는 사실을 알게 되었습니다. 이 모델은 Tongyi Qianwen 팀이 개발했으며 최대 100만 개의 토큰에 달하는 매우 긴 텍스트를 처리할 수 있는 능력을 갖추고 있습니다. 긴 텍스트 처리 분야에서 획기적인 발전이 이루어졌습니다. 이 획기적인 발전은 사용자에게 더욱 강력한 텍스트 처리 기능을 제공하고 AI 애플리케이션의 경계를 확장할 것입니다. Qwen2.5-Turbo 모델은 여러 장문 평가에서 GPT-4를 능가하며 정확성과 효율성 측면에서 장점을 입증했으며, 더 저렴한 비용으로 더 강력한 서비스를 제공합니다.
이 새 버전의 모델은 긴 텍스트 검색 작업에서 100% 정확도를 달성했으며 긴 텍스트 평가 세트 RULER에서 93.1점을 획득하여 GPT-4를 능가했습니다. LV-Eval 및 LongBench-Chat과 같은 실제 장면에 가까운 긴 텍스트 작업에서 Qwen2.5-Turbo는 대부분의 차원에서 GPT-4o-mini를 능가합니다. 짧은 텍스트 벤치마크 테스트에서도 Qwen2.5-Turbo는 매우 좋은 성능을 발휘하여 컨텍스트 길이가 1M 토큰인 이전 오픈 소스 모델을 크게 능가했습니다.
Qwen2.5-Turbo 모델은 소설에 대한 심층적인 이해, 대규모 코드 도우미, 여러 논문 읽기 등을 포함하여 광범위한 응용 시나리오를 갖추고 있습니다. 소설 10편, 연설 150시간 또는 30,000줄을 처리할 수 있습니다. 코드를 한 번에. 추론 속도 측면에서 Tongyi Qianwen 팀은 Sparse Attention 메커니즘을 통해 계산량을 약 12.5배 압축했으며, 1M 토큰 컨텍스트를 처리하는 첫 단어 반환 시간을 4.9분에서 68초로 줄여 4.3배 속도 향상을 달성했습니다.
Alibaba Cloud Bailian 플랫폼은 모든 사용자에게 Qwen2.5-Turbo API를 직접 호출할 수 있는 기능을 제공하고 1,000만 개의 토큰을 한시적으로 선물로 제공합니다. 이후 100만 개의 토큰을 사용하는 데 드는 비용은 단 0.3위안입니다.
현재 Alibaba Cloud Bailian 플랫폼은 Qwen, Llama 및 ChatGLM을 포함하여 200개 이상의 국내외 주류 오픈 소스 및 폐쇄 소스 대형 모델을 출시하여 사용자가 RAG 애플리케이션을 직접 호출하고 훈련하고 미세 조정하거나 생성할 수 있도록 지원합니다.
Qwen2.5-Turbo 모델의 출현은 긴 텍스트 처리 기술에 있어 상당한 진전을 의미합니다. 이 모델의 광범위한 적용 전망과 효율적인 성능은 모든 계층에 더 많은 가능성을 가져올 것입니다. Alibaba Cloud Bailian 플랫폼의 개방형 전략은 개발자에게 편리한 액세스를 제공하고 AI 기술의 개발 및 적용을 촉진합니다. Downcodes의 편집자는 이 모델을 기반으로 한 더욱 혁신적인 응용 프로그램을 기대합니다!