AI2 объявила о запуске открытой структуры языковых моделей OLMo, целью которой является содействие исследованиям и разработкам крупномасштабных языковых моделей. OLMo предоставляет комплексные ресурсы, включая код обучения, модель и код оценки, для облегчения углубленных исследований учеными и исследователями. Это будет способствовать новым прорывам в области языковых моделей, способствовать более широкому сотрудничеству и обменам, а также способствовать развитию технологий искусственного интеллекта. Открытый исходный код OLMo позволяет исследователям по всему миру работать вместе, чтобы изучить потенциал языковых моделей и ускорить применение и развитие технологий искусственного интеллекта.
AI2 выпустила структуру открытой языковой модели OLMo с целью стимулирования крупномасштабных исследований и экспериментов с языковыми моделями. Платформа предоставляет обучающий код, модель и оценочный код на Hugging Face и GitHub, что позволяет ученым и исследователям изучать языковые модели, изучать влияние новых подмножеств данных предварительного обучения на производительность последующих этапов, а также исследовать новый метод предварительного обучения и стабильность.
Запуск платформы OLMo знаменует собой значительный прогресс AI2 в продвижении исследований языковых моделей. Ожидается, что, открывая общие ресурсы, OLMo ускорит инновации в области языковых моделей и будет способствовать более широкому академическому сотрудничеству, что в конечном итоге будет способствовать прогрессу и развитию технологий искусственного интеллекта. Мы с нетерпением ждем более интересных результатов исследований OLMo в будущем.