AI2 anunciou o lançamento da estrutura de modelo de linguagem aberta OLMo, que visa promover a pesquisa e desenvolvimento de modelos de linguagem em larga escala. A OLMo fornece recursos abrangentes, incluindo código de treinamento, modelo e código de avaliação, para facilitar pesquisas aprofundadas por acadêmicos e pesquisadores. Isto promoverá novos avanços no domínio dos modelos linguísticos, promoverá uma cooperação e intercâmbios mais amplos e contribuirá para o avanço da tecnologia de inteligência artificial. A natureza de código aberto do OLMo permite que pesquisadores de todo o mundo trabalhem juntos para explorar o potencial dos modelos de linguagem e acelerar a aplicação e o desenvolvimento da tecnologia de inteligência artificial.
AI2 lançou a estrutura de modelo de linguagem aberta OLMo, com o objetivo de promover pesquisa e experimentação em larga escala de modelos de linguagem. A estrutura fornece código de treinamento, modelo e código de avaliação no Hugging Face e GitHub, permitindo que acadêmicos e pesquisadores estudem a ciência dos modelos de linguagem, explorem o impacto de novos subconjuntos de dados de pré-treinamento no desempenho downstream e investiguem novos métodos de pré-treinamento e estabilidade.
O lançamento da estrutura OLMo marca o grande progresso do AI2 na promoção da pesquisa de modelos de linguagem. Ao abrir recursos partilhados, espera-se que o OLMo acelere a inovação no domínio dos modelos linguísticos e promova uma cooperação académica mais ampla, promovendo, em última análise, o progresso e o desenvolvimento da tecnologia de inteligência artificial. Esperamos resultados de pesquisa mais interessantes do OLMo no futuro.