เมื่อเร็วๆ นี้ Mistral AI ได้เปิดตัวโมเดลภาษาขนาดใหญ่ Mixtral 8x7B โดยใช้โมเดล SMoE ซึ่งมีประสิทธิภาพเทียบเท่ากับ GPT-3.5 และทำงานได้ดีในงานต่างๆ เช่น คณิตศาสตร์ การสร้างโค้ด และความเข้าใจในการอ่าน โมเดลนี้มีความเร็วในการอนุมานที่เร็วกว่าและเป็นโอเพ่นซอร์สด้วยเวอร์ชัน Instruct ภายใต้ลิขสิทธิ์ Apache2.0 การเคลื่อนไหวครั้งนี้ถือเป็นก้าวสำคัญในด้านโมเดลภาษาโอเพ่นซอร์สขนาดใหญ่ และยังถือเป็นการประกาศเป้าหมายอันทะเยอทะยานของ Mistral AI ในการสร้างโมเดลโอเพ่นซอร์สระดับ GPT-4 ในปี 2567
Mistral AI เปิดตัว Mixtral 8x7B ซึ่งใช้โมเดล SMoE และมีประสิทธิภาพเทียบเท่ากับ GPT-3.5 แบบจำลองนี้ใช้กันอย่างแพร่หลายในงานต่างๆ เช่น คณิตศาสตร์ การสร้างโค้ด และการอ่านเพื่อความเข้าใจ และความเร็วในการให้เหตุผลก็เร็วขึ้น Mixtral8x7B และ Mixtral8x7B – คำแนะนำเป็นโอเพ่นซอร์สภายใต้ลิขสิทธิ์ Apache2.0 Mistral AI วางแผนที่จะเปิดตัวโมเดลระดับ GPT-4 แบบโอเพ่นซอร์สในปี 2567 โดยจะเป็นผู้นำด้านโมเดลโอเพ่นซอร์สภาษาขนาดใหญ่โอเพ่นซอร์สของ Mixtral 8x7B ลดเกณฑ์การเข้าร่วมสำหรับโมเดลภาษาขนาดใหญ่ มอบทรัพยากรอันมีค่าสำหรับนักพัฒนาและนักวิจัย และส่งเสริมความเจริญรุ่งเรืองของระบบนิเวศโมเดลโอเพ่นซอร์สขนาดใหญ่ เป็นสิ่งที่ควรค่าแก่การรอคอยการพัฒนาในภายหลังและโอเพ่นซอร์สของ GPT -4 รุ่นระดับ