DeepSeek a annoncé la sortie officielle et open source de son grand modèle de langage R1, dont les performances sont comparables à la version officielle de o1 d'OpenAI. R1 utilise largement la technologie d'apprentissage par renforcement dans la phase post-formation. Même si la quantité d'annotations de données est faible, il peut maintenir de fortes capacités de raisonnement et fonctionner correctement en mathématiques, en code et en langage naturel. DeepSeek a également open source deux modèles de taille de paramètre 660B, R1 et R1-Zero, ainsi que 6 petits modèles utilisant la technologie de distillation de modèles, y compris les modèles de paramètres 32B et 70B, dont les performances ont surpassé celles de l'o1-mini d'OpenAI. De plus, DeepSeek propose également un plan tarifaire API très compétitif et adopte une licence MIT, permettant une utilisation commerciale illimitée et encourageant les utilisateurs à effectuer un développement secondaire basé sur R1.
DeepSeek R1 a démontré sa force et son attitude ouverte en termes de performances, de stratégie open source et de tarification des API, ce qui marque un progrès significatif dans la technologie nationale de l'IA et offre plus de choix et de possibilités aux développeurs mondiaux d'IA. L'ouverture du R1 open source et des ressources associées favorisera la vulgarisation et le développement de la technologie de l'IA et accélérera l'arrivée de l'ère de l'égalité des droits dans la technologie de l'IA. Visitez le lien pour plus d'informations : Article : https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf Documentation de l'API : https://api-docs.deepseek.com/zh-cn /guides/modèle_de raisonnement