다운코드 편집자 보고서: Google은 도쿄에서 열린 Gemma Developer Day에서 Gemma AI 모델의 일본어 버전을 출시했습니다. 20억 개의 매개변수만 있는 이 컴팩트 모델은 GPT-3.5에 필적하는 성능을 가지며 모바일 장치에서 실행할 수 있습니다. 일본어에서도 좋은 성능을 발휘할 뿐만 아니라 다국어 미세 조정에서 소형 모델에서 흔히 발생하는 '치명적 망각' 문제를 극복하고 영어 능력도 유지합니다. Google은 또한 모델 가중치, 교육 자료 및 예제를 아낌없이 공개했으며 개발자가 Gemma 모델을 더 많은 현지 언어에 적용하고 글로벌 커뮤니케이션을 장려하도록 장려하기 위해 최대 150,000달러의 상금이 걸린 대회를 마련했습니다.
이번에 출시된 젬마(Gemma) 모델은 영어 능력을 유지하면서도 일본어 처리 능력이 뛰어나다. 이는 새로운 언어를 미세 조정할 때 새로 학습한 지식이 이전에 학습한 정보를 덮어쓰는 "재앙적인 망각" 문제에 직면할 수 있기 때문에 소규모 모델의 경우 특히 중요합니다. 그러나 Gemma는 이 문제를 성공적으로 극복하고 강력한 언어 처리 능력을 입증했습니다.
더 언급할 가치가 있는 점은 Google도 개발자가 더 빠르게 시작할 수 있도록 Kaggle 및 Hugging Face와 같은 플랫폼을 통해 모델의 가중치, 교육 자료 및 예제를 즉시 공개했다는 것입니다. 이는 개발자가 로컬 컴퓨팅에 이 모델을 쉽게 사용할 수 있다는 것을 의미하며, 이는 특히 엣지 컴퓨팅 애플리케이션에서 더 많은 가능성을 가져올 것입니다.
더 많은 해외 개발자를 장려하기 위해 Google은 최대 미화 150,000달러의 상금이 걸린 "Gemma와 함께하는 글로벌 커뮤니케이션 잠금 해제"라는 대회도 시작했습니다. 이 프로그램은 개발자가 Gemma 모델을 현지 언어에 맞게 조정할 수 있도록 설계되었습니다. 현재 아랍어, 베트남어, 줄루어로 이미 프로젝트가 진행 중입니다. 인도에서는 개발자들이 12개 인도 언어를 지원하도록 모델을 최적화할 계획인 "Navarasa" 프로젝트를 진행하고 있으며, 다른 팀은 한국어 방언 지원을 미세 조정하는 작업을 진행하고 있습니다.
Gemma2 시리즈 모델 출시는 더 적은 매개변수로 더 높은 성능을 달성하는 것을 목표로 합니다. Meta와 같은 다른 회사의 유사한 모델과 비교할 때 Gemma2는 동일한 성능을 발휘합니다. 어떤 경우에는 2억 개의 매개변수를 가진 Gemma2가 LLaMA-2와 같은 700억 개의 매개변수를 가진 일부 모델을 능가할 수도 있습니다. 개발자와 연구자는 Hugging Face, Google AI Studio, Google Colab의 무료 플랜을 통해 Gemma-2-2B 모델 및 기타 Gemma 모델을 얻을 수 있으며 Vertex AI Model Garden에서도 찾을 수 있습니다.
공식 홈페이지 입구: https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it
포옹하는 얼굴: https://huggingface.co/google
구글 Colab: https://ai.google.dev/gemma/docs/keras_inference?hl=de
전체적으로 Gemma 모델의 출시는 개발자에게 강력한 도구를 제공하고 다국어 응용 프로그램에서 인공 지능 개발을 위한 새로운 가능성을 제공합니다. 경량 설계와 개방형 리소스 공유 모델은 인공지능 기술의 대중화와 적용을 촉진할 것이며 향후 개발과 적용을 기대할 가치가 있습니다.