DeepSeek выпустила новое поколение языковых моделей V4 — первое обновление линейки с начала 2025 года. В релиз вошли две версии: V4-Pro и V4-Flash. Модели работают с контекстом до 1 млн токенов, поддерживают NVIDIA CUDA и Huawei Ascend NPU, распространяются с открытым кодом и весами.

Объем контекста моделей составляет 1 млн токенов, что позволяет обрабатывать длинные документы и большие объемы кода без разбиения на части.
DeepSeek-V4-Pro имеет 1,6 трлн параметров (49 млрд активных) и ориентирована на задачи программирования, математики и инженерии. Разработчики утверждают, что ее производительность сопоставима с закрытыми моделями, а по направлениям Math, STEM и Coding она превосходит другие открытые решения. Заявлены расширенные агентные функции. DeepSeek-V4-Flash — вариант с 284 млрд параметров (13 млрд активных). По заявлениям компании, она сохраняет уровень рассуждений, близкий к Pro-версии, но работает быстрее и с меньшими затратами.
Модели поддерживают как экосистему NVIDIA CUDA, так и ускорители Huawei Ascend NPU. Компания подтвердила валидацию схемы распараллеливания экспертов на обоих типах чипов.
Цены API для V4-Pro: 1,74 доллара за 1 млн входных токенов и 3,48 доллара за 1 млн выходных. Для V4-Flash: 0,14 и 0,28 доллара соответственно. Пропускная способность сервиса ограничена из-за нехватки вычислительных ресурсов. В DeepSeek указали, что после выхода узлов Ascend 950 во второй половине 2026 года возможно снижение цен.
Согласно сторонним рейтингам, на платформе vals.ai модель занимает 9-е место в мире и 1-е среди открытых. На платформе arena.ai текстовые возможности находятся на 20-м месте, способности к программированию — на 14-м. Некоторые независимые тесты показывают, что V4 Pro уступает модели GLM-5.1. По внутренним оценкам компании, модель удобнее Sonnet 4.5 и близка к Opus 4.6 без режима «размышления», но уступает Opus 4.6 в режиме рассуждения. Модели работают только с текстом, мультимодальность отсутствует.
В DeepSeek позиционируют V4 как шаг к сокращению разрыва между открытыми и закрытыми моделями. Обе модели доступны через веб-интерфейс и API, распространяются с открытым кодом, заявлена возможность интеграции с инструментами Claude Code, OpenClaw и OpenCode.