Laporan editor Downcode: Google merilis model Gemma AI versi Jepang pada Gemma Developer Day di Tokyo. Model ringkas dengan hanya 2 miliar parameter ini memiliki kinerja yang sebanding dengan GPT-3.5 dan dapat dijalankan di perangkat seluler. Ini tidak hanya berkinerja baik dalam bahasa Jepang, tetapi juga mengatasi masalah "lupa bencana" yang umum terjadi pada model kecil dalam penyesuaian multi-bahasa, dan mempertahankan kemampuannya dalam bahasa Inggris. Google juga dengan murah hati membuka bobot model, materi pelatihan, dan contoh, serta mengadakan kompetisi berhadiah hingga $150.000 untuk mendorong pengembang mengadaptasi model Gemma ke lebih banyak bahasa lokal dan mempromosikan komunikasi global.
Model Gemma yang dirilis kali ini berkinerja baik dalam pemrosesan bahasa Jepang dengan tetap mempertahankan kemampuannya dalam bahasa Inggris. Hal ini sangat penting untuk model kecil, karena ketika menyempurnakan bahasa baru, mereka mungkin menghadapi masalah "bencana lupa", yaitu pengetahuan yang baru dipelajari menimpa informasi yang dipelajari sebelumnya. Namun Gemma berhasil mengatasi masalah ini dan menunjukkan kemampuan pemrosesan bahasa yang kuat.
Yang lebih penting lagi adalah Google juga segera merilis bobot, materi pelatihan, dan contoh model melalui platform seperti Kaggle dan Hugging Face untuk membantu pengembang memulai lebih cepat. Artinya, pengembang dapat dengan mudah menggunakan model ini untuk komputasi lokal, yang akan membawa lebih banyak kemungkinan, terutama dalam aplikasi komputasi edge.
Untuk mendorong lebih banyak pengembang internasional, Google juga meluncurkan kompetisi bertajuk "Membuka Komunikasi Global dengan Gemma" dengan hadiah hingga US$150.000. Program ini dirancang untuk membantu pengembang mengadaptasi model Gemma ke bahasa lokal. Saat ini, sudah ada proyek yang sedang berjalan dalam bahasa Arab, Vietnam dan Zulu. Di India, pengembang sedang mengerjakan proyek “Navarasa”, yang berencana mengoptimalkan model untuk mendukung 12 bahasa India, sementara tim lain sedang berupaya menyempurnakan dukungan untuk dialek Korea.
Peluncuran model seri Gemma2 bertujuan untuk mencapai kinerja lebih tinggi dengan parameter lebih sedikit. Dibandingkan dengan model serupa dari perusahaan lain seperti Meta, Gemma2 memiliki kinerja yang sama baiknya. Dalam beberapa kasus, Gemma2 dengan 200 juta parameter bahkan dapat melampaui beberapa model dengan 70 miliar parameter, seperti LLaMA-2. Pengembang dan peneliti dapat memperoleh model Gemma-2-2B dan model Gemma lainnya melalui paket gratis Hugging Face, Google AI Studio, dan Google Colab, dan semuanya juga dapat ditemukan di Vertex AI Model Garden.
Pintu masuk situs web resmi: https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it
Memeluk Wajah: https://huggingface.co/google
Google Colab: https://ai.google.dev/gemma/docs/keras_inference?hl=de
Secara keseluruhan, peluncuran model Gemma memberi pengembang alat yang canggih dan membawa kemungkinan baru untuk pengembangan kecerdasan buatan dalam aplikasi multi-bahasa. Desainnya yang ringan dan model berbagi sumber daya terbuka akan mendorong pemasyarakatan dan penerapan teknologi kecerdasan buatan, dan pengembangan serta penerapannya di masa depan patut dinantikan.