Meta는 최근 차세대 대형 언어 모델 Llama-3 훈련을 위해 24,000개의 H100 GPU를 갖춘 2개의 슈퍼 클러스터를 구축할 것이라고 발표했습니다. 이 프로젝트는 고급 RoCEv2 네트워크와 Tectonic/Hammerspace의 NFS/FUSE 네트워크 스토리지 솔루션을 사용하여 교육 효율성과 데이터 액세스 속도를 향상시킵니다. Llama-3는 4월 말이나 5월 중순에 온라인에 출시될 예정이며 다중 모드 모델일 수도 있습니다. Meta는 계속해서 모델을 오픈 소스로 제공할 계획입니다. 이번 행보는 메타가 AI 대형모델 분야에 계속 투자하겠다는 의지와 저력을 부각시킨 것으로, 앞으로의 행보에 귀추가 주목된다.
Meta는 대형 모델 Llama-3 훈련을 위해 특별히 설계된 2개의 24K H100GPU 클러스터를 공식 웹사이트에 출시했습니다. Llama-3은 RoCEv2 네트워킹과 Tectonic/Hammerspace의 NFS/FUSE 네트워크 스토리지를 사용합니다. 4월 말이나 5월 중순에 온라인에 출시될 예정이며, 다중 모드 모델로 계속 오픈 소스로 제공될 수 있습니다. Meta는 2024년 말까지 600,000개의 H100 컴퓨팅 성능을 확보할 계획입니다.Meta의 대규모 컴퓨팅 성능 투자는 향후 AI 모델 훈련의 발전을 예고하며 Llama-3의 출시도 기대할만한 가치가 있습니다. 다중 모드 특성과 오픈 소스 전략은 AI에 지대한 영향을 미칠 것입니다. 필드. Meta의 야심 찬 600,000 H100 계획은 인공 지능 분야에서 강력한 강점과 향후 개발 방향을 보여줍니다.