AI2 a annoncé le lancement du cadre de modèle de langage ouvert OLMo, qui vise à promouvoir la recherche et le développement de modèles de langage à grande échelle. OLMo fournit des ressources complètes, notamment un code de formation, un modèle et un code d'évaluation, pour faciliter les recherches approfondies des universitaires et des chercheurs. Cela favorisera de nouvelles percées dans le domaine des modèles linguistiques, favorisera une coopération et des échanges plus larges et contribuera à l'avancement de la technologie de l'intelligence artificielle. La nature open source d'OLMo permet aux chercheurs du monde entier de travailler ensemble pour explorer le potentiel des modèles de langage et accélérer l'application et le développement de la technologie de l'intelligence artificielle.
AI2 a publié le cadre de modèle de langage ouvert OLMo, visant à promouvoir la recherche et l'expérimentation de modèles de langage à grande échelle. Le framework fournit un code de formation, un modèle et un code d'évaluation sur Hugging Face et GitHub, permettant aux universitaires et aux chercheurs d'étudier la science des modèles de langage, d'explorer l'impact de nouveaux sous-ensembles de données de pré-formation sur les performances en aval, et d'étudier de nouvelles méthodes de pré-formation et stabilité.
Le lancement du framework OLMo marque une avancée majeure d'AI2 dans la promotion de la recherche sur les modèles de langage. En ouvrant des ressources partagées, OLMo devrait accélérer l'innovation dans le domaine des modèles linguistiques et promouvoir une coopération universitaire plus large, favorisant à terme le progrès et le développement de la technologie de l'intelligence artificielle. Nous attendons avec impatience des résultats de recherche plus passionnants d’OLMo à l’avenir.