DeepSeek-V3-0324: китайская модель ИИ на 671 млрд параметров теперь доступна всем

Обновление уже вызвало активные обсуждения в профессиональном сообществе благодаря значительному улучшению производительности, особенно в задачах программирования и логического анализа.
DeepSeek-V3-0324: китайская модель ИИ на 671 млрд параметров теперь доступна всем

24 марта 2025 года разработчики представили новую версию своей языковой модели под названием DeepSeek-V3-0324. Вроде бы — всего лишь очередной релиз, но знающие люди уже вовсю обсуждают, что на деле перед нами — заметный шаг вперёд. Цифры в названии (0324) отсылают к дате выхода, и это, пожалуй, единственный «маленький» элемент в этой истории.

Что же такого особенного в V3-0324?

Во-первых, это не просто «подшаманили» прежнюю версию. Новая модель серьёзно прибавила в скорости, точности и логике. DeepSeek сохранила прежнюю архитектуру MoE (Mixture-of-Experts) с внушительным числом параметров — 671 миллиард. Но, как и раньше, одновременно активируется лишь 37 миллиардов — компромисс между мощностью и эффективностью, который позволяет выдавать высокие результаты без необходимости тратить гигантские ресурсы.

А теперь — внимание: скорость генерации текста у V3-0324 достигла 60 токенов в секунду. Для сравнения — предыдущая версия V2 едва дотягивала до 20. Это втрое быстрее. Для разработчиков и исследователей, особенно тех, кто работает с фронтендом, такой прирост — подарок судьбы. Генерируемый код стал аккуратнее, чище, готов к немедленному использованию. Неудивительно, что в соцсетях вроде X и Reddit модель уже окрестили реальным конкурентом платным гигантам, включая Claude Sonnet 3.5 от Anthropic. В некоторых тестах DeepSeek даже выходит вперёд — вот это поворот!

Ключевой момент

DeepSeek остаётся верна принципу открытости. Модель полностью open-source, распространяется под лицензией MIT и доступна на Hugging Face — весит, правда, немало (641 ГБ). Но если у вас Mac Studio с чипом M3 Ultra — вперёд, можно попробовать квантованную 4-битную версию на 352 ГБ. А если нет желания возиться с локальным запуском, никто не мешает просто зайти на сайт DeepSeek или воспользоваться OpenRouter — всё работает прямо в браузере.

И хотя сама компания называет релиз «небольшим обновлением», цифры говорят обратное. В бенчмарках вроде MMLU-Pro и LiveCodeBench — уверенный рост. А в генерации кода модель теперь способна выдавать до 700 строк без единой ошибки. Причём API остался прежним, так что переход с предыдущих версий происходит безболезненно.

DeepSeek-V3-0324 демонстрирует заметные улучшения по сравнению со своим предшественником DeepSeek-V3 по нескольким ключевым аспектам.
DeepSeek-V3-0324 демонстрирует заметные улучшения по сравнению со своим предшественником DeepSeek-V3 по нескольким ключевым аспектам.

Почему это важно?

DeepSeek не просто наращивает темпы — она бросает вызов самим правилам игры. В мире, где OpenAI, Anthropic и другие лидеры держат свои модели за платным доступом, китайская команда идёт по другому пути — делает технологии доступными для всех. Это не просто про удобство. Это — про стратегию, про то, сможет ли Китай обойти США в гонке ИИ. Особенно в условиях санкций и ограничений на поставку оборудования.

Хочешь попробовать сам? Пожалуйста:

  • OpenRouter — быстрый API и чат в браузере;

  • Hugging Face — полная модель для энтузиастов с мощным железом;

  • deepseek.com — интерфейс, готовый к тестам и экспериментам.

Так что, если вам казалось, что в мире ИИ уже всё решено — подумайте ещё раз. DeepSeek только начинает набирать обороты.

21:20
171
DeepSeek
DeepSeek — технологическая компания, зарегистрированная как Hangzhou DeepSeek Artificial Intelligence Basic Technology Research Co., Ltd. Основана в июле 2023 года в Ханчжоу Лян Вэньфэном
Нет комментариев. Ваш будет первым!
Яндекс.Метрика