MiniMax는 2024년 1월 16일 중국 최초의 MoE 대형 언어 모델인 abab6을 출시하여 우리나라 대형 언어 모델 분야에 새로운 돌파구를 마련했습니다. abab6 모델은 MoE 아키텍처를 채택하고 복잡한 작업을 처리할 수 있는 능력을 갖추고 있으며 단위 시간당 더 많은 데이터를 훈련할 수 있어 효율성과 성능 면에서 상당한 이점을 보여줍니다. 이전 버전에 비해 abab6은 명령 준수, 포괄적인 중국어 및 영어 기능 등 여러 측면에서 향상되었으며 심지어 세계 최고의 일부 대형 언어 모델을 능가했습니다.
MiniMax는 2024년 1월 16일 중국 최초의 MoE 대형 언어 모델인 abab6을 출시했습니다. 이 모델은 MoE 아키텍처를 채택하고 복잡한 작업을 처리할 수 있는 능력을 갖추고 있으며 단위 시간당 더 많은 데이터를 훈련할 수 있습니다. 평가 결과 abab6은 이전 버전 abab5.5보다 명령 준수, 포괄적인 중국어 능력 및 포괄적인 영어 능력이 우수하며 GPT-3.5와 같은 다른 대형 언어 모델을 능가하는 것으로 나타났습니다. abab6는 아이들에게 수학 문제를 가르치고 상하이에 관한 가상의 보드 게임을 만드는 데 도움을 주는 등 뛰어난 능력을 보여주었습니다. 중국 최초의 MoE 대형 언어 모델인 abab6은 복잡한 작업을 처리하는 데 탁월한 성능을 발휘합니다.
abab6의 출시는 국내 대형 언어 모델의 기술 수준을 향상시킬 뿐만 아니라 향후 인공지능 응용 프로그램의 광범위한 개발을 위한 견고한 기반을 마련합니다. 복잡한 작업 처리에서의 뛰어난 성능은 이 분야에서 MoE 아키텍처의 큰 잠재력을 나타냅니다. 앞으로도 MoE 아키텍처를 기반으로 한 우수한 모델이 더욱 많이 등장하여 인공지능 기술의 지속적인 발전을 촉진할 것이라고 믿습니다.