다운코드 편집자 보고서: Google은 도쿄에서 열린 Gemma Developer Day에서 큰 소식을 발표했습니다. Gemma 모델의 일본어 버전이 공식 출시되었습니다! 20억 개의 매개변수만 있는 이 AI 모델은 일본어와 영어를 원활하게 처리할 수 있으며 성능은 GPT-3.5와 비슷합니다. 새로운 언어를 배울 때 작은 모델이 발생하기 쉬운 "치명적인 망각" 문제를 성공적으로 극복했습니다. 능력. 이러한 획기적인 발전은 AI 분야에 새로운 희망을 가져다줍니다.
Google은 도쿄에서 열린 Gemma Developer Day에서 큰 소식을 발표했습니다. Gemma 모델의 새로운 일본어 버전이 공식적으로 공개되었습니다. 20억 개의 매개변수 규모로 이 작고 강력한 AI 모델은 일본어와 영어를 모두 처리할 수 있어 GPT-3.5에 필적하는 성능을 보여줍니다.
이러한 기술적 혁신은 특히 눈길을 끈다. AI 분야에서 작은 모델은 새로운 언어를 배울 때 치명적인 망각 문제에 직면하는 경우가 많습니다. 즉, 새로운 지식을 습득하는 과정에서 이전에 습득한 능력을 잃어버리는 문제입니다. Gemma의 일본어 버전은 이 문제를 성공적으로 극복하고 이중 언어 능력의 완벽한 균형을 달성했습니다.
글로벌 개발자 커뮤니티의 참여를 촉진하기 위해 Google은 Kaggle 및 Hugging Face 플랫폼을 통해 모델 가중치를 공개했을 뿐만 아니라 완전한 교육 자료와 샘플 코드도 제공했습니다. 간소화된 디자인 덕분에 이 모델은 모바일 장치에서도 기본적으로 실행될 수 있어 엣지 컴퓨팅 애플리케이션에 대한 새로운 가능성을 열어줍니다.
Google은 또한 개발자가 Gemma를 더 많은 언어에 적용하도록 장려하기 위해 최대 미화 150,000달러 상당의 Gemma 글로벌 커뮤니케이션 잠금 해제 대회를 시작했습니다. 현재 아랍어, 베트남어, 줄루어에 대한 적응 프로젝트가 시작되었습니다. 동시에 인도의 Navarasa 프로젝트는 12개의 인도 언어를 지원하기 위해 노력하고 있으며 다른 팀은 한국어 방언의 최적화를 모색하고 있습니다.
구글이 7월말 오픈소스로 공개한 Gemma2 시리즈의 최신 멤버로, 소형과 대형의 디자인 컨셉을 고수한 모델입니다. Meta와 같은 회사에서 출시한 유사한 제품과 마찬가지로 효율성과 현지화된 처리 기능에 중점을 둡니다. 이 20억 매개변수 모델의 성능은 일부 작업에서 700억 매개변수 LLaMA-2를 능가한다는 점은 언급할 가치가 있습니다.
개발자와 연구원은 Hugging Face, Google AI Studio, Google Colab 등 다양한 플랫폼을 통해 Gemma-2-2B 및 기타 Gemma 시리즈 모델에 무료로 접근할 수 있으며, 이러한 모델은 Vertex AI 모델 마켓에도 출시되었습니다. 이러한 일련의 이니셔티브는 전 세계 AI 개발자에게 더 혁신적인 가능성을 제공할 것입니다.
구글은 이번에 Gemma 모델의 일본어 버전을 오픈하고 글로벌 적용을 적극적으로 추진해 AI 분야에서 지속적인 혁신을 이루고 전 세계 개발자들에게 더 많은 탐색과 실습 기회를 제공하겠다는 의지를 보여줬다. 앞으로 더 많은 언어와 애플리케이션 시나리오에 편의성을 제공하는 Gemma 모델을 기대합니다. 작지만 강력한 이 모델이 AI 분야에서 더 큰 역할을 하리라 믿습니다.