Meta est sur le point de publier son modèle de langage à grande échelle LLaMa 3, qui vise à équilibrer sécurité et convivialité. Auparavant, LLaMa 2 avait été critiqué pour être trop conservateur dans ses paramètres de sécurité. Meta espère que LLaMa 3 pourra traiter efficacement les questions controversées tout en fournissant une méthode de réponse plus flexible. Le nouveau modèle devrait comporter plus de 14 milliards de paramètres et démontrera des capacités plus puissantes dans le traitement de requêtes complexes. Cependant, la perte de talents clés apporte également une incertitude sur la formation de LLaMa 3.
LLaMa 3 cherche à équilibrer sécurité et convivialité, et Meta prévoit de sortir le modèle en juillet. LLaMa 2 avait le problème d'être trop conservateur en matière de sécurité, et Meta espère fournir une réponse plus flexible dans LLaMa 3. LLaMa 3 devrait contenir plus de 14 milliards de paramètres et disposera de capacités plus puissantes pour gérer des requêtes complexes. Le talent est également une nécessité pour la formation de LLaMa 3, dont Louis Martin, le chercheur chargé de la sécurité, quitte l'entreprise. On ne sait pas si cela aura un impact sur la formation. L'article souligne que Meta espère que LLaMa 3 pourra résoudre des problèmes controversés et en même temps apporter de nouvelles surprises aux utilisateurs en termes de capacités de codage.
La sortie de LLaMa 3 est très attendue. La question de savoir s'il parvient à trouver un équilibre entre sécurité et fonctionnalité et à faire face avec succès à la concurrence sur le marché sera au centre de l'attention future. Les efforts de Meta reflètent également les défis et les opportunités rencontrés dans le développement de modèles linguistiques à grande échelle.