Китайская технологическая компания DeepSeek объявляет о запуске и открытии модели искусственного интеллекта DeepSeek V4, которая мгновенно стала одним из главных конкурентов на рынке больших языковых моделей (LLM). Новая серия моделей, включающая версии Pro и Flash, выделяется невероятным объемом параметров и способностью обрабатывать контекст длиной до 1 миллиона токенов, что позволяет ей соперничать с ведущими закрытыми аналогами в сфере науки, техники и логического мышления.
Ключевые детали:
- Профессиональный уровень (Pro): Модель V4 Pro обладает внушительными 1.6 триллионами общих параметров и 49 миллиардами активных параметров. DeepSeek заявляет, что Pro-версия демонстрирует превосходные агентные возможности, обладает обширными знаниями о мире, которые превосходят все существующие открытые модели, и демонстрирует мирового класса способность к рассуждению в математике, STEM-дисциплинах и кодировании. По заявлениям компании, Pro-версия почти сравнялась с Gemini 3.1 Pro.
- Скорость и эффективность (Flash): Модель V4 Flash имеет меньше параметров (284 миллиарда), но при этом обеспечивает логические способности, близкие к Pro-версии. Flash демонстрирует производительность на уровне Pro в простых агентских задачах и при этом является значительно более экономичным вариантом для API.
- Контекст и доступность: Обе версии Pro и Flash поддерживают контекст до 1 миллиона токенов. Модели уже доступны на сайте DeepSeek через Instant Mode и Expert Mode.
Ценовая политика:
Новая архитектура позволяет DeepSeek предложить высокопроизводительные модели по конкурентоспособной цене.
- Flash: Входной запрос стоит всего от $0.028 (при попадании в кэш) до $0.14 (при промахе в кэше), а стоимость вывода составляет $0.28.
- Pro: Соответствующие цены для Pro-версии — $0.145 и $1.74 (входной запрос), а стоимость вывода — $3.48.
Таким образом, DeepSeek успешно позиционирует V4 как экономически эффективное решение для задач, требующих глубокого понимания контекста и сложного логического анализа.




