Google I/O 2025 делает Gemini ядром цифровой экосистемы
Год назад Google осторожно намекала, что Gemini — это больше, чем просто языковая модель. Сегодня это уже не концепция, а фактический фундамент всей цифровой экосистемы. I/O 2025 стала моментом, когда ИИ вышел из интерфейсов и начал ими управлять. Вместо новых устройств модули, агенты, сервисы и инструменты, способные не просто поддержать разговор, но и, скажем, договориться за вас о встрече с риэлтором, пока вы смотрите кино.
Самое яркое обновление — AI Mode в Google Search. Новая вкладка делает поиск разговорным, гибким и визуальным. Пользователи уже формулируют запросы в два–три раза длиннее, уточняют детали и получают развёрнутые, логичные ответы. Поиск распознаёт текст, фото, видео и голос, а функция Deep Search превращает запросы в полноценные аналитические материалы.
Акцент на скорости и масштабах. Новые модели Gemini работают быстрее и точнее, а серверы на базе TPU Ironwood обеспечивают до 42,5 эксафлопс на один вычислительный модуль. Это в десять раз мощнее предыдущего поколения. Объём обрабатываемых токенов за год вырос с 9,7 до 480 трлн. Число разработчиков, использующих Gemini, достигло 7 млн, что в пять раз больше, чем в 2024 году.

Флагманская модель Gemini 2.5 Pro получила режим Deep Think, предназначенный для сложных задач в математике, коде и логике. Для более повседневных задач представлена версия Gemini 2.5 Flash, которая легче, дешевле и уже доступна пользователям.
ИИ теперь не только отвечает, но и действует. В Gmail появились персонализированные Smart Replies. Модель анализирует переписку и документы в Google Drive, подбирает тон, добавляет ссылки и прикрепляет нужные файлы. В Google Workspace можно превратить презентации в видео с ИИ-аватарами, собирать подкасты, строить инфографику.
На визуальном фронте новые версии Imagen 4 и Veo 3. Veo теперь создаёт видео со звуком на 24 языках, умеет управлять камерой и удалять объекты. Приложение Google Flow позволяет собрать короткий видеоклип (пока до восьми секунд) и скомпоновать его в полноценную сцену.
Из аппаратных новинок представлен Project Aura. Смарт-очки на платформе Android XR распознают объекты, отображают подсказки, переводят речь и поддерживают навигацию. Прототип уже работает. Разработка ведётся совместно с Xreal, Samsung и Gentle Monster.
Также представлен Google Beam, преемник Project Starline. Это система 3D-видеосвязи с точным отслеживанием движений и голосовым переводом в реальном времени. Пока работает только с английским и испанским языками и доступна подписчикам AI Pro и AI Ultra (стоимость последнего — $250 в месяц).
Google сломала квантовую физику
Project Astra развивается как проактивный ассистент. Он реагирует на происходящее через камеру: распознаёт ошибки, определяет объекты и запускает действия без явной команды. В режиме Agent Mode Gemini уже может работать с сайтами, фильтрами и интерфейсами. В планах расширение функций в Chrome, Search и API.
Среди нишевых инструментов отмечен Stitch, который генерирует интерфейсы по текстовому описанию или эскизу. В AI Mode также тестируется функция виртуальной примерки одежды на основе фото. Пока это эксперимент, но с большим потенциалом для онлайн-ритейла.
На этом фоне обновления Android 16 и Wear OS 6 выглядят скромно. Улучшенный интерфейс, новые анимации и кастомизация — скорее фоновая настройка в эпоху, когда всё внимание сосредоточено на ИИ.
Gemini становится новым цифровым слоем — интерфейсом между пользователем и всей экосистемой Google. Это уже не помощник, а полноценный механизм принятия решений и действия.
Google больше не просто делает сервисы. Это уже платформа, где ИИ — не функция, а способ взаимодействия с цифровым миром. Будущее уже не анонсируется — оно просто включено по умолчанию.