Alibaba Cloud Bai Lian 플랫폼은 Qwen2.5-Turbo Million Long 텍스트 모델을 시작했습니다.이 모델은 Tongyi Qianwen 팀에 의해 개발되었습니다. 또는 150 150 10,000 중국어. 이 모델은 긴 텍스트 검색, 긴 텍스트 평가 세트 통치자 및 실제 장면에 가까운 긴 텍스트 작업에서 탁월한 결과를 얻었으며 여러 차원에서 GPT-4를 능가했습니다. 또한 짧은 텍스트 벤치 마크 테스트에서도 잘 수행되었으며, 이는 이전 유사한 모델을 크게 능가했습니다.
Alibaba Cloud Bai Lian 플랫폼은 최근 Qwen2.5-Turbo Million Long Text Model의 출시를 발표했습니다. 이는 백만 또는 150 만 문자에 해당합니다.
긴 텍스트 검색 작업 에서이 새로운 버전의 모델의 정확도는 100%에 도달했으며 GPT-4를 능가하는 긴 텍스트 평가 세트 통치자에서 93.1 점을 기록했습니다. LV-Eval, Longbench-Chat과 같은 실제 장면에 가까운 Long Text Mission에서 Qwen2.5-Turbo는 대부분의 차원에서 GPT-4O- 미니를 능가했습니다. 짧은 텍스트 벤치 마크 테스트에서 QWEN2.5-TURBO의 성능도 매우 우수하며 컨텍스트 전과 아래의 1m 토큰의 오픈 소스 모델을 크게 능가했습니다.
QWEN2.5-TURBO 모델에는 소설, 대규모 코드 어시스턴트, 여러 논문 읽기 등에 대한 심도있는 이해를 포함하여 광범위한 응용 시나리오가 있습니다. 암호. 추론 속도 측면에서, Tongyi Qianwen 팀은 드문주의 메커니즘을 통해 계산량을 약 12.5 배 씩 압축하고 1m 토큰 컨텍스트의 첫 번째 단어 반환 시간을 4.9 분에서 68 초로 줄여 4.3 배의 속도를 달성했습니다.
Alibaba Cloud Bai Lian 플랫폼은 모든 사용자에게 QWEN2.5-TURBO API를 직접 전화하고 제한된 시간 안에 천만 개의 토큰 할당량을 제공 할 수있는 기능을 제공합니다. 미래에 수백만 개의 토큰을 사용하는 비용은 0.3 위안입니다.
현재 Alibaba Cloud Bai Lian 플랫폼은 Qwen, LLAMA 및 ChatGLM을 포함한 200 개가 넘는 주류 오픈 소스를 출시했으며, 이는 사용자가 직접 호출, 미세 조정 또는 RAG 애플리케이션을 만들도록 지원합니다.
QWEN2.5-TURBO 모델의 출현은 긴 텍스트 처리 기술의 상당한 진전을 나타내며 다양한 산업에보다 강력한 AI 도구를 제공합니다. Alibaba Cloud Bai Lian 플랫폼의 개방형 전략을 통해 더 많은 개발자 가이 고급 기술을 쉽게 적용하여 인공 지능의 개발을 공동으로 홍보 할 수 있습니다. 저렴한 비용은 또한 사용 임계 값을 더욱 줄였습니다.