Project Astra приходит в Google Search, Gemini и к разработчикам
На конференции
Google I/O 2025 компания официально представила масштабное внедрение Project Astra — собственной low-latency multimodal AI-платформы, позволяющей обрабатывать и анализировать визуальные и аудиовходы в реальном времени. Проект интегрирован сразу в несколько ключевых продуктов Google: поисковый сервис Search, приложение
Gemini и инструменты для сторонних разработчиков.
Ключевой новинкой стала функция Search Live: пользователи могут в режиме AI Mode или через Google Lens использовать камеру смартфона для прямого видео- и аудиовзаимодействия с AI — нажимая “Live”, получать ответы на вопросы по изображению в реальном времени. В основе функции — стриминг видео и аудио напрямую в модель ИИ с минимальной задержкой.
Для разработчиков открыт обновлённый Live API, поддерживающий низколатентные голосовые и визуальные сценарии, а также улучшенное распознавание эмоций. В приложении Gemini теперь всем доступны инструменты совместного просмотра экрана и real-time видеоинтеракций — ранее это было привилегией платных пользователей.
В долгосрочной перспективе Project Astra претендует на роль платформы для нового поколения “умных” очков: Google уже ведёт разработки с Samsung и Warby Parker, но сроки их выхода пока не объявлены. По сути, Project Astra открывает эру массового внедрения multimodal AI в интерфейсы и пользовательские сценарии Google.
Читайте также
Google запустила Doppl — новое приложение для виртуальной примерки одежды с помощью ИИ
Imagen 4 — новая модель генерации изображений от Google
Google выводит модель генерации музыки Lyria RealTime в публичный API
Google внедряет AI-режим шопинга с отслеживанием цен, “умной” корзиной и виртуальной примеркой
В NotebookLM от Google появились видео-обзоры и мобильные приложения