DeepSeek anunció el lanzamiento oficial y el código abierto de su modelo de lenguaje grande R1, cuyo rendimiento es comparable a la versión oficial de OpenAI o1. R1 utiliza ampliamente la tecnología de aprendizaje por refuerzo en la fase posterior al entrenamiento. Incluso si la cantidad de anotaciones de datos es pequeña, puede mantener sólidas capacidades de razonamiento y tener un buen desempeño en matemáticas, código y razonamiento en lenguaje natural. DeepSeek también abrió dos modelos de tamaño de parámetros 660B, R1 y R1-Zero, así como 6 modelos pequeños que utilizan tecnología de destilación de modelos, incluidos los modelos de parámetros 32B y 70B, cuyo rendimiento superó al o1-mini de OpenAI. Además, DeepSeek también ofrece un plan de precios de API altamente competitivo y adopta una licencia MIT, lo que permite un uso comercial ilimitado y anima a los usuarios a realizar un desarrollo secundario basado en R1.
DeepSeek R1 ha demostrado su gran fortaleza y actitud abierta en términos de rendimiento, estrategia de código abierto y precio de API, lo que marca un progreso significativo en la tecnología de IA nacional y ofrece más opciones y posibilidades para los desarrolladores de IA globales. La apertura del R1 de código abierto y los recursos relacionados promoverá la popularización y el desarrollo de la tecnología de IA y acelerará la llegada de la era de la igualdad de derechos en la tecnología de IA. Visite el enlace para obtener más información: Documento: https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf Documentación API: https://api-docs.deepseek.com/zh-cn /guías/modelo_razonamiento