DeepSeek выпустил V4 Pro и V4 Flash 24 апреля 2026: 1.6T параметров, контекст 1M токенов, гибридное внимание CSA/HCA. Бенчмарки против GPT-5.5 и Claude Opus 4.7, цены, как пользоваться в России.
24 апреля 2026 года китайская лаборатория DeepSeek выпустила V4-Pro и V4-Flash — две модели, которые впервые в истории open-source закрывают разрыв с лучшими закрытыми моделями (GPT-5.5, Claude Opus 4.7, Gemini 3.1 Pro). И делают это в 7–9 раз дешевле.
Это не маркетинговое заявление, а результат публичных бенчмарков. В этом обзоре разбираем архитектуру, реальные тесты, цены и отвечаем на главный вопрос — стоит ли переходить на V4 в 2026 году.
В январе 2025 года DeepSeek уже встряхнул индустрию — релиз R1 был назван «Sputnik moment» в мире AI: впервые open-source модель догнала o1 от OpenAI, и сделала это за десятки миллионов долларов вместо миллиардов.
Через 15 месяцев DeepSeek повторяет этот трюк, но в большем масштабе:
И всё это — открытые веса под MIT-подобной лицензией. Можно скачать, запустить локально, дообучить, использовать коммерчески.
| Параметр | Значение |
|---|---|
| Тип | Mixture of Experts (MoE) |
| Всего параметров | 1.6 триллиона |
| Активных параметров на токен | 49B |
| Pre-training токенов | 33 триллиона |
| Контекст | 1,000,000 токенов |
| Output limit | 64K токенов |
| Режимы | Thinking + Non-Thinking |
| Multimodal | Только текст (vision в работе) |
| Tool use | Да |
| Лицензия | DeepSeek License (близка к MIT) |
| Параметр | Значение |
|---|---|
| Тип | Mixture of Experts (MoE) |
| Всего параметров | 284B |
| Активных параметров на токен | 13B |
| Pre-training токенов | 32 триллиона |
| Контекст | 1,000,000 токенов |
| Output limit | 32K токенов |
| Скорость | ~140 токенов/сек |
V4-Flash — лёгкая версия для массового применения. Несмотря на меньший размер, она тоже поддерживает 1M контекста, что для модели её класса беспрецедентно.
Самая интересная часть V4 — не размер, а новый механизм внимания, который радикально снижает стоимость работы с длинным контекстом.
В V3.2 при работе с 1M токенов:
В V4 применили гибридную схему из двух новых механизмов:
Результат на 1M-контексте:
Это первая модель, где работа с 1M токенов экономически осмысленна. До V4 заявленный 1M контекст у Gemini и Claude часто был бесполезен — слишком дорого и медленно. Теперь — норма.
Вот где V4 показывает, насколько она близка к лучшим закрытым моделям. Все цифры — из официального technical report DeepSeek и независимых тестов VentureBeat, NxCode, fundaai.
| Бенчмарк | V4-Pro | V4-Flash | Claude Opus 4.7 | GPT-5.5 | Gemini 3.1 Pro |
|---|---|---|---|---|---|
| SWE-bench Verified | 80.6% | 79.0% | 80.8% | 78.4% | 76.1% |
| SWE-bench Pro | 55.4% | — | 64.3% | 58.6% | 51.2% |
| LiveCodeBench | 93.5% | 91.6% | 88.8% | 90.2% | 87.4% |
| Codeforces (rating) | 3,206 | 2,940 | 3,180 | 3,150 | 3,090 |
| HumanEval+ | 96.2% | 94.1% | 95.8% | 96.5% | 94.0% |
Вывод по коду: V4-Pro лидирует на синтетических бенчмарках (LiveCodeBench, Codeforces). На реальных задачах разработки (SWE-bench Pro) Claude Opus 4.7 пока сильнее за счёт более продуманного instruction-following. Для конкурентного программирования V4 — лучший выбор.
| Бенчмарк | V4-Pro | Claude Opus 4.7 | GPT-5.5 | Gemini 3.1 Pro |
|---|---|---|---|---|
| GPQA Diamond | 90.1% | 94.2% | 93.6% | 92.1% |
| HLE (Humanity's Last Exam) | 37.7% | 46.9% | 41.4% | 38.2% |
| MMLU-Pro | 84.1% | 85.4% | 85.9% | 83.7% |
| AIME 2025 | 92.4% | 91.2% | 93.1% | 90.5% |
| SimpleQA-Verified | 57.9% | 64.3% | 61.8% | 60.5% |
Вывод: в чистом reasoning V4-Pro отстаёт от Claude Opus 4.7 на 4–9 пунктов. На задачах общих знаний — на 6 пунктов. Это и есть «3–6 месяцев отставания», о которых пишут аналитики. По меркам индустрии — отставание минимальное.
| Бенчмарк | V4-Pro | Claude Opus 4.7 | GPT-5.5 |
|---|---|---|---|
| BrowseComp | 83.4% | 79.3% | 84.4% |
| τ-bench (Airline) | 71.2% | 73.5% | 76.1% |
| WebArena | 64.8% | 65.2% | 68.4% |
V4 неожиданно сильна на задачах с инструментами и веб-поиском — почти догоняет GPT-5.5 на BrowseComp. Это делает её отличным выбором для агентских сценариев: автономные ассистенты, web research, RAG-системы.
Здесь V4 не просто конкурирует — она уничтожает экономику закрытых моделей.
| Модель | Input ($/1M) | Output ($/1M) | За 1000 токенов в ₽ (через Lumen AI) |
|---|---|---|---|
| DeepSeek V4-Flash | $0.14 | $0.28 | 0.04 ₽ |
| DeepSeek V4-Pro | $1.74 | $3.48 | 0.52 ₽ |
| GPT-5.5 | $5.00 | $30.00 | 3.50 ₽ |
| Claude Opus 4.7 | $15.00 | $75.00 | 9.00 ₽ |
| Claude Sonnet 4.6 | $3.00 | $15.00 | 1.80 ₽ |
| Gemini 3.1 Pro | $3.50 | $10.50 | 1.40 ₽ |
| Сценарий | V4-Flash | V4-Pro | Claude Opus 4.7 | GPT-5.5 |
|---|---|---|---|---|
| Резюме статьи (10K + 1K) | 0.16 ₽ | 1.8 ₽ | 30 ₽ | 12 ₽ |
| Анализ большого договора (200K + 5K) | 2.4 ₽ | 35 ₽ | 600 ₽ | 240 ₽ |
| Сессия программирования (200K + 30K) | 9 ₽ | 145 ₽ | 2,650 ₽ | 1,150 ₽ |
| Обработка миллиона документов (500K avg + 2K out) | 180 ₽ | 2,800 ₽ | 50,000 ₽ | 22,000 ₽ |
Для команд, которые тратят на AI десятки тысяч рублей в месяц, переход на V4 экономит 70–95% бюджета при сопоставимом качестве на 80% задач.
Технические детали интересны, но что меняется на практике?
До V4 (на длинных контекстах):
В V4-Pro:
Это превращает работу с большими документами из эксперимента в норму. Теперь можно реально загружать целые книги, годовые отчёты, кодовые базы и общаться с ними как с маленьким файлом.
V4 опубликована на Hugging Face с открытыми весами. Это важно по нескольким причинам:
Для большинства российских команд самохостинг неактуален (слишком дорого), но факт открытости весов означает, что V4 не исчезнет даже если DeepSeek закроется. Закрытые модели такой гарантии не дают.
DeepSeek — китайская компания, она работает с российских IP без VPN. Но прямой доступ к API требует:
Для большинства пользователей это слишком сложно. Поэтому самый удобный путь — через российские агрегаторы, которые принимают рубли.
В Lumen AI обе версии V4 доступны сразу:
Если не подходит Lumen AI — есть и другие варианты:
Не торопитесь. Sonnet и V4-Flash — близкие по цене и качеству. Sonnet чуть лучше в креативных задачах, V4 чуть лучше в STEM. Используйте обе через /compare и выберите по своим сценариям.
Стоит попробовать V4-Pro. Если ваши задачи — это анализ документов, программирование, исследовательская работа — V4-Pro даст 90% качества Opus за 12% цены. Если задачи — креативные тексты или тонкая работа с языком — оставайтесь на Opus.
Стоит попробовать V4-Pro для бэкенда. Для интерактивного чата с пользователями GPT-5.5 пока приятнее (более «живой» стиль). Для пайплайнов, агентов, обработки данных — V4-Pro выгоднее в разы.
Однозначно переходите. V4-Flash дешевле V3.2 при лучшем качестве. V4-Pro лучше во всём.
Спорно. Gemini сильна в multimodal (vision, audio, video). V4 пока только текст. Если важно видео и звук — оставайтесь на Gemini, если только текст — переходите на V4 ради экономии.
В техническом репорте DeepSeek намекнули на ещё несколько релизов в 2026 году:
Если эти модели выйдут с тем же price/performance ratio, открытый AI станет нормой уже к концу 2026 года, а закрытые модели окажутся в нише premium-задач.
DeepSeek V4 — это не просто очередная модель. Это точка перегиба индустрии:
Для команд, которые тратят на AI значимые деньги — переход на V4-Pro для бэкенда и V4-Flash для массовых задач даёт немедленную экономию 60–90% при минимальной потере качества.
Для индивидуальных пользователей — V4-Flash на бесплатном тарифе Lumen AI даёт качество, которое ещё год назад стоило $20/мес подписки на ChatGPT Plus.
Попробовать DeepSeek V4 бесплатно можно прямо сейчас — регистрация в Lumen AI занимает 30 секунд и не требует карты.
Попробуйте по теме статьи
DeepSeek — что это такое и почему все о нём говорят
Полный обзор DeepSeek V3 и R1: возможности, сравнение с GPT-4, работа с русским языком, бесплатный доступ в России. Китайская нейросеть которая потрясла мир.
СоветыAI-ассистент для бизнеса — как малому бизнесу использовать нейросеть
Как предпринимателю использовать ИИ бесплатно: анализ договоров, SMM, презентации, коммерческие предложения. Практические сценарии.
РуководстваНейросеть для кода бесплатно — генерация, отладка и объяснение
Как использовать нейросеть для написания кода бесплатно: генерация на Python, JavaScript, Go, отладка ошибок и объяснение чужого кода.
Попробуйте Lumen AI бесплатно
20 сообщений в день — Gemini, Llama, DeepSeek без карты
Начать бесплатно