DeepSeek запустила модели V3.2 и V3.2-Speciale с упором на продвинутые рассуждения и работу агентов

Новый этап развития моделей DeepSeek
Компания DeepSeek объявила о выпуске двух моделей: DeepSeek-V3.2 и экспериментальной DeepSeek-V3.2-Speciale. Обе ориентированы на сложные цепочки рассуждений и применение в агентных сценариях — от многошагового поиска до решения инженерных задач.
DeepSeek-V3.2 стала официальной заменой предыдущей версии V3.2-Exp и уже доступна в фирменном приложении, веб-версии и через API. Этот релиз базируется на архитектуре с разреженным вниманием (DSA), которая была подробно описана в техническом документе, и обеспечивает значительный прирост эффективности на длинных контекстах. По данным разработчиков, модель демонстрирует сопоставимые с GPT-5 результаты в задачах логики, математики и программирования .

Усиленная версия — DeepSeek-V3.2-Speciale
Второй релиз — DeepSeek-V3.2-Speciale создан для максимально глубокого развернутого мышления. Она доступна только через API и ориентирована на разработчиков, работающих с агентами, инструментальными вызовами и сложными вычислительными сценариями.
Согласно официальным данным, Speciale использует расширенный набор данных для обучения и уменьшенные ограничения длины вывода. Это позволяет модели показывать результаты уровня ведущих закрытых систем. В частности, Speciale получила «золото» на Международной математической олимпиаде 2025 года (IMO), Международной олимпиаде по информатике (IOI) и соревнованиях ICPC World Finals, что подтверждается таблицами в техническом документе.

Основные особенности моделей
DeepSeek-V3.2 использует новую систему DeepSeek Sparse Attention (DSA), которая значительно снижает вычислительную сложность при работе с длинными последовательностями. На графиках на странице 6 отчёта видно, что стоимость инференса для V3.2 заметно ниже по сравнению с предыдущей версией, особенно при генерации длинных ответов .
Модель прошла масштабный этап RL-дообучения, где использовались:
- смешанные схемы Reinforcement Learning (GRPO),
- отдельные специализированные эксперты (математика, код, логические задачи),
- крупные синтетические агентные среды — более 1800 уникальных окружений и 85 тысяч сложных запросов.
Эта обучающая стратегия позволила V3.2 уверенно решать многошаговые задачи, где требуется не только вывести ответ, но и спланировать решение с использованием инструментов.
Как релиз влияет на рынок
За последние месяцы, как отмечается в документе, разрыв между закрытыми и открытыми моделями вырос. DeepSeek позиционирует серию V3.2 как попытку вернуть баланс и предложить разработчикам открытое решение, способное конкурировать в сложных доменах рассуждений и работы агентов.
Особенно подчёркивается эффективность: при близком качестве модель требует меньше ресурсов и показывает более низкую стоимость токена, что видно на диаграммах инференса на странице 6 документа.


