Редактор Downcodes узнал, что DeepSeek, дочерняя компания китайского гиганта прямых инвестиций Magic Square Quantitative, недавно выпустила свою последнюю крупномасштабную языковую модель, ориентированную на логические выводы, R1-Lite-Preview. Эта модель в настоящее время открыта для публики только через платформу веб-чат-бота DeepSeek Chat, и ее производительность привлекла широкое внимание, даже приближаясь или превосходя модель o1-preview, недавно выпущенную OpenAI. DeepSeek известен своим вкладом в экосистему искусственного интеллекта с открытым исходным кодом, и этот запуск подтверждает приверженность доступности и прозрачности.
DeepSeek, дочерняя компания китайского гиганта прямых инвестиций Huifang Quantitative, недавно выпустила свою новейшую крупномасштабную языковую модель R1-Lite-Preview, ориентированную на логические выводы. В настоящее время модель доступна широкой публике только через DeepSeek Chat, платформу веб-чат-ботов.
DeepSeek известен своим инновационным вкладом в экосистему искусственного интеллекта с открытым исходным кодом, и эта новая версия призвана предоставить общественности возможности вывода высокого уровня, сохраняя при этом приверженность доступности и прозрачности. Хотя R1-Lite-Preview в настоящее время доступен только в приложениях для чата, он привлек широкое внимание своей производительностью, близкой или даже превосходящей недавно выпущенную модель o1-preview от OpenAI.
R1-Lite-Preview использует рассуждения «цепного мышления», которые могут показать различные мыслительные процессы, которые он проходит при ответе на запросы пользователей.
Хотя некоторые цепочки мыслей могут показаться людям бессмысленными или неправильными, в целом ответы R1-Lite-Preview очень точны и могут даже решить «ловушки», с которыми сталкиваются некоторые традиционные мощные модели ИИ, такие как GPT-4o и серия Claude. Вопросы, например, сколько букв R в слове «клубника» «Что больше, 9,11 или 9,9?»
По мнению DeepSeek, модель превосходно справляется с задачами, требующими логических рассуждений, математического мышления и решения проблем в реальном времени. Его производительность превышает уровень OpenAI o1-preview в таких установленных тестах, как AIME (Американский пригласительный экзамен по математике) и MATH.
Кроме того, DeepSeek опубликовал расширенные данные о модели, демонстрируя устойчивое улучшение точности, когда модели дается больше времени или «токенов размышления» для решения проблемы. На диаграмме показано, что по мере увеличения глубины мышления оценка модели по таким критериям, как AIME, улучшается.
Текущая версия R1-Lite-Preview хорошо работает в ключевых тестах, способная решать широкий спектр задач, от сложных математических до логических сценариев, с оценками, сопоставимыми с лучшими моделями вывода, такими как GPQA и Codeforces. Прозрачный процесс рассуждения модели позволяет пользователям наблюдать ее логические шаги в режиме реального времени, повышая чувство ответственности и надежность системы.
Стоит отметить, что DeepSeek не опубликовал полный код для стороннего независимого анализа или сравнительного тестирования, а также не предоставил интерфейс API для независимого тестирования. Компания еще не опубликовала соответствующие сообщения в блоге или технические документы, описывающие обучение или тестирование. Структура R1-Lite-Preview, поэтому происхождение ее до сих пор вызывает сомнения.
R1-Lite-Preview в настоящее время доступен бесплатно через DeepSeek Chat (chat.deepseek.com), но его расширенный режим «глубокой мысли» ограничен 50 сообщениями в день, что позволяет пользователям испытать его мощные возможности. DeepSeek планирует выпустить версии моделей серии R1 с открытым исходным кодом и соответствующие API для дальнейшей поддержки развития сообщества искусственного интеллекта с открытым исходным кодом.
DeepSeek продолжает внедрять инновации в области искусственного интеллекта с открытым исходным кодом, а выпуск R1-Lite-Preview добавляет новое измерение к его выводам и масштабируемости. Поскольку предприятия и исследователи изучают возможности применения искусственного интеллекта, требующего сложных выводов, приверженность DeepSeek открытости гарантирует, что ее модели станут важным ресурсом для развития и инноваций.
Официальный вход: https://www.deepseek.com/
В целом, R1-Lite-Preview демонстрирует сильные стороны DeepSeek в области крупномасштабных языковых моделей, и его план с открытым исходным кодом также стоит ожидать. Однако отсутствие раскрытия кода и технической документации также придаёт загадку техническим деталям. Редактор Downcodes продолжит обращать внимание на последующий прогресс DeepSeek.