Progressos inovadores foram feitos na tecnologia de quantização de baixo bit para grandes modelos de linguagem. O método BitNet b1.58 lançado em conjunto pela Microsoft e pela Universidade da Academia Chinesa de Ciências converte os parâmetros do modelo em representação ternária, reduzindo significativamente o consumo de memória do modelo e simplificando o processo de cálculo. Isto marca que os grandes modelos de linguagem entraram oficialmente na “era do 1 bit”, indicando que os modelos futuros serão mais leves e eficientes.
Grandes modelos de linguagem inauguraram a "era de 1 bit". O método BitNet b1.58 proposto pela Microsoft e pela Universidade da Academia Chinesa de Ciências converte parâmetros em representação ternária, o que reduz fundamentalmente o consumo de memória do modelo e simplifica o cálculo. processo. O desempenho deste método foi comparado em modelos de diferentes tamanhos, a velocidade foi melhorada e o uso de memória foi reduzido, o que gerou discussões acaloradas entre os internautas.
O surgimento do método BitNet b1.58 traz novas possibilidades para a aplicação de grandes modelos de linguagem e aponta caminhos para futuras direções de pesquisas. Não só melhora a eficiência do modelo, mas também reduz os custos operacionais e promove uma aplicação mais ampla da tecnologia de IA. Esperamos ansiosamente por mais avanços semelhantes no futuro, permitindo que a tecnologia de IA beneficie uma gama mais ampla de pessoas.