Google продолжает развивать линейку ИИ-моделей Gemini и представила сразу несколько значительных обновлений. Среди них – Gemini 2.0 Flash, отличающаяся высокой производительностью и контекстным окном в 1 млн токенов, а также новая экспериментальная модель Gemini 2.0 Pro, предназначенная для сложных вычислений и кодинга.
Впервые представленная на I/O 2024, серия Flash завоевала популярность среди разработчиков благодаря высокой скорости работы и возможностям мультимодального анализа. Теперь Gemini 2.0 Flash стала доступна для всех пользователей.
«Gemini 2.0 Flash, в отличие от своих конкурентов, напоминает отстающий болид, но с достойным мотором и техническими параметрами: эта языковая модель в линейке Gemini превосходит предшествующие в ключевых функциях — программировании, математических расчетах, генерации изображений и других — в среднем на 7–10%. Но если попробовать ее сравнить по техническим характеристикам с нашумевшими китайскими DeepSeek-R1, Qwen 2.5 Max или последней моделью o3-mini от OpenAI, новая Gemini окажется в догоняющих и по показателям математических способностей (MATH-500), в кодировании (Codeforces) и ответах на типовые вопросы (метрика SimpleQA)», — делится Кирилл Пшинник, сооснователь и CEO онлайн-университета Zerocoder.
У новой Gemini 2.0 Flash 1 млн токенов по сравнению с 128 тыс. токенов у последних моделей OpenAI и 131+ тысячами токенов у DeepSeek-R1.
«Это говорит о том, что последняя языковая модель от Google тоже врывается в индустрию reasoning – показывает прозрачное рассуждение своей LLM. Но помимо этого обладает большим контекстным потенциалом – полезной функцией, необходимой для работы с объемной документацией, большими диалогами и обработкой сложной информации. Размер контекстного окна влияет на то, сколько модель может через себя «пропустить» информации».
Кирилл Пшинник, сооснователь и CEO онлайн-университета Zerocoder
«Если вы ведете долгий цикл продаж с клиентом, готовитесь к длинному техническому интервью или пишете книгу, то контекстное окно позволит передать нейросети больший объем данных, который она обработает за несколько минут или даже секунд. Вы сможете загрузить в нее многостраничные фолианты, попросить проанализировать, просчитать риски или выдать рекомендацию. Для понимания, книга из 250 страниц занимает в памяти нейросети 128-150 тысяч токенов. OpenAI уже такой документ не сможет обработать. А Gemini 2.0 Flash может, и не один. Аналогично и с программным кодом: если вы работаете над сложным техническим продуктом и вам нужно проанализировать качество информации, Gemini 2.0 Flash будет хорошим подспорьем», — добавляет эксперт.
Google также анонсировала Gemini 2.0 Pro, свою самую мощную модель для кодинга, сложных запросов и логического анализа. Она оснащена контекстным окном в 2 млн токенов и способна обрабатывать огромные объемы информации.
Все обновленные версии Gemini 2.0 уже доступны для тестирования. Разработчики могут опробовать их через Google AI Studio и Vertex AI, а пользователи – в приложении Gemini.