DeepSeek представила обновление линейки своих языковых моделей — DeepSeek-V3.2 и DeepSeek-V3.2-Speciale. Обе модели имеют открытые веса и доступны для использования. Согласно представленным данным, в большинстве тестов V3.2 показывает результаты, аналогичные показателям GPT-5 и Gemini 3 Pro.

Базовая модель V3.2 демонстрирует производительность, сопоставимую с другими современными крупными языковыми моделями. Стоимость использования этой модели через API была снижена, а веб-интерфейс и мобильные приложения остаются бесплатными для пользователей, включая Россию.
Модель V3.2-Speciale ориентирована на решение сложных задач. По результатам внутреннего тестирования, она показывает высокие результаты на специализированных бенчмарках, включая задачи олимпиадного уровня по математике (AIME, HMMT), информатике и естественным наукам (GPQA Diamond).
В технической документации разработчики выделили три основных архитектурных улучшения. Первое — это реализация механизма разреженного внимания (Sparse Attention), который снижает вычислительную нагрузку при работе с длинными контекстами. Второе — расширенный этап пост-обучения с применением обучения с подкреплением, в ходе которого сначала обучались узкоспециализированные модели, а их знания затем объединялись. Третье — использование разнообразных интерактивных сред и задач для улучшения агентных способностей модели, включая более эффективное управление контекстом между вызовами инструментов.
Отмечается, что в текущей версии этап предварительного обучения был менее масштабным по сравнению с некоторыми аналогами, что может влиять на объем фактических знаний модели. Также для решения сложных задач модель может генерировать более длинные ответы.
Модель DeepSeek-V3.2 доступна через веб-интерфейс, мобильные приложения и API. Модель Speciale на текущий момент предлагается через API.
