Shenzhen Yuanxiang Information Technology Co., Ltd. meluncurkan model besar sumber terbuka Mixture of Experts (MoE) terbesar di Tiongkok - XVERSE-MoE-A36B . Model ini telah mencapai peningkatan yang signifikan dalam waktu pelatihan dan kinerja inferensi, mengurangi biaya per token secara signifikan, dan memberikan dukungan kuat untuk penerapan aplikasi AI berbiaya rendah. Terobosan ini menandai kemajuan signifikan Tiongkok dalam bidang model bahasa berskala besar, mendorong teknologi open source dalam negeri ke posisi terdepan di dunia internasional. Model XVERSE-MoE-A36B sepenuhnya open source dan gratis untuk penggunaan komersial, menyediakan sumber daya berharga bagi usaha kecil dan menengah, peneliti dan pengembang.
Model XVERSE-MoE-A36B memiliki total parameter 255B dan parameter aktivasi 36B. Performanya sebanding dengan model besar dengan parameter lebih dari 100B, sehingga mencapai lompatan performa lintas level. Model ini mengurangi waktu pelatihan sebesar 30%, meningkatkan kinerja inferensi sebesar 100%, secara signifikan mengurangi biaya per token, dan memungkinkan penerapan aplikasi AI berbiaya rendah. Model seri bucket keluarga berkinerja tinggi Yuanxiang XVERSE telah sepenuhnya open source dan gratis tanpa syarat untuk penggunaan komersial, sehingga memberikan lebih banyak pilihan bagi perusahaan kecil dan menengah, peneliti, dan pengembang. Arsitektur Kementerian Lingkungan Hidup mendobrak batasan undang-undang ekspansi tradisional dengan menggabungkan model ahli di beberapa subdivisi. Sambil memperluas skala model, arsitektur ini mempertahankan kinerja model maksimum dan mengurangi biaya komputasi pelatihan dan inferensi. Dalam beberapa evaluasi otoritatif, pengaruh Yuanxiang MoE telah secara signifikan melampaui banyak model serupa, termasuk model domestik 100 miliar MoE Skywork-MoE, penguasa MoE tradisional Mixtral-8x22B, dan model sumber terbuka MoE 314 miliar parameter Grok-1 - A86B dll.
Model seri bucket keluarga berkinerja tinggi Yuanxiang XVERSE telah sepenuhnya open source dan gratis tanpa syarat untuk penggunaan komersial, sehingga memberikan lebih banyak pilihan bagi perusahaan kecil dan menengah, peneliti, dan pengembang. Arsitektur Kementerian Lingkungan Hidup mendobrak batasan undang-undang ekspansi tradisional dengan menggabungkan model ahli di beberapa subdivisi. Sambil memperluas skala model, arsitektur ini mempertahankan kinerja model maksimum dan mengurangi biaya komputasi pelatihan dan inferensi.
Dalam beberapa evaluasi otoritatif, pengaruh Yuanxiang MoE telah secara signifikan melampaui banyak model serupa, termasuk model domestik 100 miliar MoE Skywork-MoE, penguasa MoE tradisional Mixtral-8x22B, dan model sumber terbuka MoE 314 miliar parameter Grok-1 - A86B dll.
Unduh gratis model besar
Memeluk Wajah: https://huggingface.co/xverse/XVERSE-MoE-A36B
Lingkup Ajaib: https://modelscope.cn/models/xverse/XVERSE-MoE-A36B
Github: https://github.com/xverse-ai/XVERSE-MoE-A36B
Pertanyaan: [email protected]
Situs web resmi: chat.xverse.cn
Penggunaan XVERSE-MoE-A36B yang open source dan komersial gratis menurunkan ambang batas penerapan AI dan akan sangat mendorong pengembangan dan penerapan teknologi kecerdasan buatan Tiongkok. Kinerjanya yang luar biasa dan akses yang mudah tidak diragukan lagi menyediakan alat dan sumber daya yang canggih bagi pengembang dan peneliti AI dalam dan luar negeri. Nantikan lebih banyak aplikasi inovatif berdasarkan model ini di masa depan.