Полный обзор Gemini 3.1 Pro от Google DeepMind: 1M контекста, обработка видео до 1 часа, бенчмарки против GPT-5.5 и Claude. Как пользоваться в России.
19 февраля 2026 года Google DeepMind выпустила Gemini 3.1 Pro — модель, которая с большим отрывом лидирует в трёх стратегически важных категориях:
При этом Gemini не лучшая модель для всего — на code и реальной разработке Claude Opus 4.7 и GPT-5.5 опережают её. В этом обзоре разбираемся, для каких задач Gemini 3.1 Pro действительно стоит выбора, а где — нет.
| Что | В чём Gemini лидер |
|---|---|
| Видео-анализ | До 1 часа видео в одном промпте, рекорд VideoMME (87.2%) |
| Abstract reasoning | ARC-AGI-2: 77.1% (выше всех) |
| Научные знания | GPQA Diamond: 94.3% (рекорд) |
| Multimodal | До 900 изображений в одном запросе |
| Audio | До 8.4 часа аудио в промпте |
| Интеграция с Google | Workspace, Drive, Gmail, Docs из коробки |
И где Gemini уступает:
| Параметр | Значение |
|---|---|
| Контекст | 1,048,576 токенов (~1M) |
| Output limit | 65,536 токенов |
| Multimodal | Текст, фото (до 900 шт), аудио (до 8.4ч), видео (до 1ч) |
| Цена input | $3.50 / 1M токенов |
| Цена output | $10.50 / 1M токенов |
| Скорость | ~80 токенов/сек |
| Reasoning mode | Extended thinking |
| Tool use | Да |
В Lumen AI: 1000 токенов ≈ 1.40 ₽ — одна из самых выгодных топ-моделей.
Это уникальная для Gemini возможность. Конкретно:
Gemini 3.1 Pro не просто описывает видео — она рассуждает о происходящем: строит таймлайны событий, отвечает на вопросы про конкретные секунды, находит специфические моменты.
Согласно официальным данным Google DeepMind, Gemini 3.1 Pro лидирует на 13 из 16 ключевых бенчмарков. Разберём самые важные.
| Бенчмарк | Gemini 3.1 Pro | GPT-5.5 | Claude Opus 4.7 |
|---|---|---|---|
| ARC-AGI-2 | 77.1% | 41.8% | 39.4% |
| MMLU-Pro | 83.7% | 85.9% | 85.4% |
| HLE (без tools) | 38.2% | 41.4% | 46.9% |
Цифра 77.1% на ARC-AGI-2 — это серьёзный прорыв. ARC-AGI — главный бенчмарк на способность решать новые задачи (с паттернами, которых модель никогда не видела). Долгое время фронтирные модели не могли пройти 50%, и многие исследователи считали, что AGI — годы вперёд.
77.1% — это уровень, при котором задачи реально решаются, а не угадываются. Это значит, что Gemini лучше других справляется с необычными задачами, где не помогает «вспомнить из обучения».
| Бенчмарк | Gemini 3.1 Pro | GPT-5.5 | Claude Opus 4.7 |
|---|---|---|---|
| GPQA Diamond | 94.3% | 93.6% | 94.2% |
| AIME 2025 | 90.5% | 93.1% | 91.2% |
| MATH-500 | 96.4% | 95.8% | 95.4% |
GPQA Diamond — graduate-level вопросы по биологии, химии и физике. 94.3% — рекорд индустрии (PCMag это специально отметил). На AIME (математика олимпиадного уровня) Gemini чуть слабее GPT-5.5, но превосходит Claude Opus.
| Бенчмарк | Gemini 3.1 Pro | GPT-5.5 | Claude Opus 4.7 |
|---|---|---|---|
| VideoMME | 87.2% | 71.4% | 64.8% |
| MMMU | 84.6% | 81.2% | 79.8% |
| DocVQA | 96.1% | 94.8% | 95.3% |
VideoMME — рекордные 87.2%. Это бенчмарк на понимание видео: вопросы про события, динамику, рассуждения о причинно-следственных связях. Никакая другая модель не дотягивает до 75%.
Для практики это значит: Gemini — единственная модель, на которой всерьёз можно строить видео-аналитические продукты.
| Бенчмарк | Gemini 3.1 Pro | GPT-5.5 | Claude Opus 4.7 | DeepSeek V4-Pro |
|---|---|---|---|---|
| SWE-bench Verified | 76.1% | 78.4% | 87.6% | 80.6% |
| SWE-bench Pro | 51.2% | 58.6% | 64.3% | 55.4% |
| LiveCodeBench | 87.4% | 90.2% | 88.8% | 93.5% |
Здесь Gemini не лидер. Если ваша задача — серьёзная разработка ПО, Gemini не лучший выбор.
Это самая сильная часть Gemini, и здесь модель действительно уникальна. Конкретные сценарии:
1M токенов = ~150,000 строк кода. Можно загрузить средний production-проект целиком и получить:
| Сценарий | Gemini 3.1 Pro | GPT-5.5 | Claude Opus 4.7 |
|---|---|---|---|
| Резюме статьи (10K + 1K) | 5 ₽ | 12 ₽ | 30 ₽ |
| Анализ 1ч видео (~700K токенов) | ~1,000 ₽ | недоступно | недоступно |
| 100 фото с описанием | ~150 ₽ | ~300 ₽ | ~600 ₽ |
| Анализ годового отчёта PDF (500K + 10K) | 95 ₽ | 230 ₽ | 600 ₽ |
| Код-сессия с агентом (200K + 30K) | 95 ₽ | 250 ₽ | 750 ₽ |
Для multimodal-задач Gemini не просто дешевле — у конкурентов нет аналогов. Для текстовых задач она в 2–6 раз дешевле GPT-5.5 и Claude Opus при сопоставимом качестве.
| Категория | Gemini 3.1 Pro | GPT-5.5 | Claude Opus 4.7 |
|---|---|---|---|
| Видео (длительность) | до 1 часа | до 5 минут | нет |
| Аудио (длительность) | до 8.4 часа | стандарт | нет |
| Изображений в запросе | до 900 | до 50 | до 100 |
| Качество видео-понимания | 87.2% | 71.4% | 64.8% |
В multimodal Gemini — безусловный лидер 2026 года. Конкуренты не догоняют.
| Категория | Gemini 3.1 Pro | GPT-5.5 | Claude Opus 4.7 |
|---|---|---|---|
| Abstract logic (ARC-AGI-2) | 77.1% | 41.8% | 39.4% |
| Knowledge facts (HLE) | 38.2% | 41.4% | 46.9% |
| Math olympiad (AIME) | 90.5% | 93.1% | 91.2% |
| Science (GPQA Diamond) | 94.3% | 93.6% | 94.2% |
Reasoning у Gemini сильный, но специфический: лучше на новых паттернах, хуже на знании-памяти.
| Категория | Gemini 3.1 Pro | GPT-5.5 | Claude Opus 4.7 | DeepSeek V4 |
|---|---|---|---|---|
| SWE-bench Verified | 76.1% | 78.4% | 87.6% | 80.6% |
| Production-ready code | средне | хорошо | отлично | хорошо |
Для серьёзной разработки Gemini не лучший выбор. Используйте Claude Opus или DeepSeek V4.
Прямой доступ от Google ограничен:
Для российских пользователей самые удобные варианты:
В Lumen AI Gemini 3.1 Pro доступен:
Gemini Flash (легкая версия) доступна бесплатно — 20 сообщений в день без подписки.
Наш YouTube Agent на Gemini 3.1 Pro даёт лучшее качество резюме видео в индустрии — потому что Gemini нативно понимает видео (а не только транскрипт).
Marketplace Agent использует Gemini для анализа фото товаров с Wildberries и Ozon — модель видит детали, которые упускают другие.
Загрузить 500-страничный отчёт через Research Agent — Gemini справляется с этим лучше любой другой модели.
| Категория | Лидер 2026 |
|---|---|
| Видео и аудио | Gemini 3.1 Pro |
| Abstract reasoning | Gemini 3.1 Pro |
| Научные вопросы | Gemini 3.1 Pro / Claude Opus 4.7 (паритет) |
| Реальная разработка ПО | Claude Opus 4.7 |
| Терминальные задачи | GPT-5.5 |
| Длинный контекст работа | GPT-5.5 |
| Real-time data | Grok 4.20 |
| Цена/качество | DeepSeek V4 |
| Креативные тексты | Claude Opus 4.7 |
Gemini 3.1 Pro — это не «универсальная лучшая модель», а специализированный лидер в multimodal и abstract reasoning. Используйте её, когда:
Не используйте её, когда:
В большинстве реальных проектов оптимально иметь доступ к 3–4 моделям одновременно и переключаться между ними. Именно так работает Lumen AI — все топ-модели в одном чате, оплата в рублях, без VPN.
Попробуйте по теме статьи
Llama 4 Scout — обзор бесплатной open-source модели от Meta с контекстом 10M
Подробный обзор Llama 4 Scout от Meta: 17B активных параметров, 10M контекст, мультимодальность, цена $0.11/1M. Сравнение с Llama 4 Maverick и конкурентами.
ОбзорыGrok 4 от xAI — обзор моделей, тесты и доступ из России
Полный обзор Grok 4, Grok 4.20 и Grok 4.1 Fast от xAI Илона Маска: 2M контекст, цены, бенчмарки, реальные сценарии. Как пользоваться в России без VPN.
ОбзорыDeepSeek V4 Pro и Flash — полный обзор новой open-source модели 2026
DeepSeek выпустил V4 Pro и V4 Flash 24 апреля 2026: 1.6T параметров, контекст 1M токенов, гибридное внимание CSA/HCA. Бенчмарки против GPT-5.5 и Claude Opus 4.7, цены, как пользоваться в России.
Попробуйте Lumen AI бесплатно
20 сообщений в день — Gemini, Llama, DeepSeek без карты
Начать бесплатно