Meta собирается выпустить крупномасштабную языковую модель LLaMa 3, целью которой является баланс между безопасностью и удобством использования. Ранее LLaMa 2 критиковали за слишком консервативность настроек безопасности. Meta надеется, что LLaMa 3 сможет эффективно решать спорные вопросы, обеспечивая при этом более гибкий метод ответа. Ожидается, что новая модель будет иметь более 14 миллиардов параметров и продемонстрирует более мощные возможности обработки сложных запросов. Однако потеря основных талантов также вносит неопределенность в обучение LLaMa 3.
LLaMa 3 стремится сбалансировать безопасность и удобство использования, и Meta планирует выпустить модель в июле. У LLaMa 2 была проблема со слишком консервативным подходом к безопасности, и Meta надеется предоставить более гибкий ответ в LLaMa 3. Ожидается, что LLaMa 3 будет иметь более 14 миллиардов параметров и более мощные возможности обработки сложных запросов. Талант также необходим для обучения LLaMa 3, в том числе Луи Мартин, исследователь, ответственный за безопасность, покидает компанию. Неизвестно, повлияет ли это на обучение. В статье отмечается, что Meta надеется, что LLaMa 3 сможет решить спорные вопросы и в то же время преподнести пользователям новые сюрпризы с точки зрения возможностей кодирования.
Выпуск LLaMa 3 очень ожидаем. Сможет ли он обеспечить баланс между безопасностью и функциональностью и успешно справиться с рыночной конкуренцией, будет в центре внимания в будущем. Усилия Meta также отражают проблемы и возможности, с которыми сталкиваются при разработке крупномасштабных языковых моделей.