Mistral AI는 최근 SMoE 모델을 기반으로 하는 Mixtral 8x7B 대규모 언어 모델을 출시했습니다. 이 모델은 GPT-3.5에 필적하는 성능을 갖고 수학, 코드 생성 및 독해와 같은 작업에서 뛰어난 성능을 발휘합니다. 이 모델은 추론 속도가 더 빠르며 Apache2.0 라이선스에 따라 Instruct 버전으로 오픈 소스화되었습니다. 이러한 움직임은 오픈 소스 대규모 언어 모델 분야에서 큰 진전을 의미하며 2024년 오픈 소스 GPT-4 수준 모델에 대한 Mistral AI의 야심 찬 목표를 예고합니다.
Mistral AI는 SMoE 모델을 기반으로 하며 GPT-3.5에 필적하는 성능을 갖춘 Mixtral 8x7B를 출시합니다. 이 모델은 수학, 코드 생성, 독해 등의 작업에 널리 사용되며 추론 속도가 더 빠릅니다. Mixtral8x7B 및 Mixtral8x7B – Instruct는 Apache2.0 라이선스에 따라 오픈 소스로 제공됩니다. Mistral AI는 2024년에 GPT-4급 모델을 오픈 소스로 오픈하여 오픈 소스 대규모 언어 모델 분야를 선도할 계획입니다.Mixtral 8x7B의 오픈소스는 대규모 언어 모델의 진입 문턱을 낮추고, 개발자와 연구자에게 귀중한 리소스를 제공하며, 오픈소스 대규모 모델 생태계의 번영을 촉진합니다. 후속 개발과 GPT의 오픈소스를 기대해 볼 가치가 있습니다. -4 레벨 모델.