
Китайская компания DeepSeek представила новые языковые модели V4-Pro и V4-Flash, ориентированные на задачи разработки, анализа данных и научных вычислений. Превью-версии уже доступны пользователям фирменного чат-бота в режиме "Эксперт", о чем разработчики рассказали в соцсети X (ранее Twitter).
Модели DeepSeek V4-Pro и V4-Flash поддерживают контекстное окно до 1 млн токенов и могут функционировать как в режиме "рассуждений", так и без него.
Флагманская V4-Pro имеет совокупный объем 1,6 трлн параметров, а в процессе генерации задействуется порядка 49 млрд. Более легкая V4-Flash содержит 248 млрд параметров и использует около 13 млрд на одну генерацию, что позволяет сократить задержки и снизить стоимость эксплуатации.По оценке DeepSeek, V4-Pro демонстрирует опережающие результаты среди открытых моделей в задачах математики, программирования и естественных наук. По уровню "общих знаний" модель уступает лишь Gemini 3.1 Pro. Также разработчик позиционирует новинку как лидера в бенчмарках по агентному программированию.
Модель поддерживает интеграции с инструментами разработки, включая Claude Code, OpenClaw и OpenCode.
V4-Flash в свою очередь ориентирована на массовые сценарии: при сопоставимом качестве в базовых задачах она обеспечивает более высокую скорость отклика и эффективность затрат.
Веса моделей уже опубликованы на платформе Hugging Face. Доступ через API, по заявлению компании, будет открыт 24 апреля 2026 года.
Свежие комментарии