DeepSeek anunciou o lançamento oficial e o código aberto de seu modelo de linguagem grande R1, cujo desempenho é comparável ao da versão oficial do o1 da OpenAI. R1 usa extensivamente a tecnologia de aprendizagem por reforço na fase pós-treinamento. Mesmo que a quantidade de anotação de dados seja pequena, ele pode manter fortes capacidades de raciocínio e ter um bom desempenho em matemática, código e raciocínio em linguagem natural. DeepSeek também abriu o código-fonte de dois modelos de parâmetros de 660B, R1 e R1-Zero, bem como 6 modelos pequenos usando tecnologia de destilação de modelo, incluindo modelos de parâmetros de 32B e 70B, cujo desempenho ultrapassou o o1-mini da OpenAI. Além disso, DeepSeek também oferece um plano de preços de API altamente competitivo e adota uma licença MIT, permitindo uso comercial ilimitado e incentivando os usuários a realizar desenvolvimento secundário baseado em R1.
DeepSeek R1 demonstrou sua forte força e atitude aberta em termos de desempenho, estratégia de código aberto e preços de API, o que marca um progresso significativo na tecnologia doméstica de IA e oferece mais opções e possibilidades para desenvolvedores globais de IA. A abertura do R1 de código aberto e recursos relacionados promoverá a popularização e o desenvolvimento da tecnologia de IA e acelerará a chegada da era de direitos iguais na tecnologia de IA. Visite o link para mais informações: Artigo: https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf Documentação da API: https://api-docs.deepseek.com/zh-cn /guias/modelo_de_raciocínio