โมเดลภาษาขนาดใหญ่ล่าสุดของ Meta คือ Code Llama 70B ได้รับการอ้างว่ามีขนาดพารามิเตอร์ที่ใหญ่ที่สุดและประสิทธิภาพที่ดีที่สุด ซึ่งดึงดูดความสนใจอย่างกว้างขวางในอุตสาหกรรม อย่างไรก็ตาม ต้นทุนฮาร์ดแวร์ที่สูงได้กลายเป็นอุปสรรคสำคัญต่อการใช้งานอย่างแพร่หลายของนักพัฒนา แม้ว่าโมเดลดังกล่าวจะแสดงประสิทธิภาพที่ยอดเยี่ยมในการทดสอบ แต่นักพัฒนาบางคนก็ตั้งคำถามถึงประสิทธิภาพของมัน และกังวลว่าการกำหนดค่าฮาร์ดแวร์ที่จำเป็นสำหรับการดำเนินการนั้นมีความต้องการมากเกินไปและยากที่จะเผยแพร่
Meta เปิดตัว Code Llama 70B โดยอ้างว่ามีประสิทธิภาพสูงสุดที่ดีที่สุด แต่นักพัฒนามักรายงานว่าเป็นเรื่องยากที่จะจ่ายค่าฮาร์ดแวร์ที่สูงได้ โมเดลดังกล่าวทำงานได้ดีในการทดสอบ แต่นักพัฒนาบางคนชี้ให้เห็นว่าประสิทธิภาพไม่ดีเท่ารุ่นอื่นๆ และกังวลว่าการกำหนดค่าฮาร์ดแวร์จะเพียงพอที่จะตอบสนองความต้องการการทำงานของรุ่น 70B หรือไม่
การเปิดตัว Code Llama 70B เน้นย้ำถึงความท้าทายที่ต้องเผชิญในการพัฒนาโมเดลภาษาขนาดใหญ่: วิธีสร้างสมดุลระหว่างประสิทธิภาพและต้นทุน ในอนาคต การฝึกอบรมโมเดลและวิธีการใช้งานที่คุ้มต้นทุนมากขึ้นจะกลายเป็นกุญแจสำคัญในการส่งเสริมเทคโนโลยี AI อย่างแท้จริง เพื่อเป็นประโยชน์ต่อนักพัฒนาและกลุ่มผู้ใช้ในวงกว้างขึ้น