Google расширила линейку моделей Gemini 2.5, представив Gemini 2.5 Flash-Lite, компактную, но быструю языковую модель, оптимизированную для задач, где важны масштаб и скорость. Новинка уже доступна в предварительном просмотре через Google AI Studio и Vertex AI, а более мощные модели 2.5 Flash и 2.5 Pro перешли в статус полной доступности для продакшн-использования.
Что такое Gemini 2.5 Flash-Lite?
Это облегчённая версия Flash, созданная специально для:
- массовых задач (переводы, классификация),
- быстрого ответа при минимальной задержке,
- работы с большим объёмом данных за минимальные деньги.
Стоимость модели составляет всего $0.10 за миллион входных токенов и $0.40 за миллион выходных, что делает её самой дешёвой моделью в семействе Gemini.
Особенность: «Thinking Mode»
Инновационная функция Flash-Lite режим «Thinking», который позволяет модели тратить больше времени на обработку запроса, значительно повышая точность и глубину ответа:
Тест | Без Thinking | С Thinking |
---|---|---|
AIME 2025 (математика) | 49.8% | 63.1% |
Поиск информации в документе (recall) | x1 | x2 |
Это даёт разработчикам возможность балансировать между скоростью и качеством, подстраивая модель под разные задачи.
Производительность и область применения Gemini Flash-Lite
Несмотря на базовый уровень логического вывода (5.1% на Humanity’s Last Exam), Flash-Lite превосходит модели Gemini 2.0 в:
- кодинге,
- решении задач,
- аналитическом мышлении.
- Таким образом, она отлично подойдёт для:
- автоматизации пользовательских запросов,
- массовой генерации текстов,
- базовых ИИ-ассистентов,
- внутриигровых или мобильных ИИ-функций.
Google также подтвердила, что Flash и Flash-Lite уже используются в работе поиска Google, что подчёркивает их производственную зрелость, а стабильные версии Gemini 2.5 Pro и 2.5 Flash теперь также интегрированы в приложение Gemini для потребителей.