Project Astra приходит в Google Search, Gemini и к разработчикам

На конференции I/O 2025 компания официально представила масштабное внедрение Project Astra — собственной low-latency multimodal AI-платформы, позволяющей обрабатывать и анализировать визуальные и аудиовходы в реальном времени. Проект интегрирован сразу в несколько ключевых продуктов Google: поисковый сервис Search, приложение и инструменты для сторонних разработчиков.

Ключевой новинкой стала функция Search Live: пользователи могут в режиме AI Mode или через Google Lens использовать камеру смартфона для прямого видео- и аудиовзаимодействия с AI — нажимая “Live”, получать ответы на вопросы по изображению в реальном времени. В основе функции — стриминг видео и аудио напрямую в модель ИИ с минимальной задержкой.

Для разработчиков открыт обновлённый Live API, поддерживающий низколатентные голосовые и визуальные сценарии, а также улучшенное распознавание эмоций. В приложении Gemini теперь всем доступны инструменты совместного просмотра экрана и real-time видеоинтеракций — ранее это было привилегией платных пользователей.

В долгосрочной перспективе Project Astra претендует на роль платформы для нового поколения “умных” очков: Google уже ведёт разработки с Samsung и Warby Parker, но сроки их выхода пока не объявлены. По сути, Project Astra открывает эру массового внедрения multimodal AI в интерфейсы и пользовательские сценарии Google.

Читайте также

  1. Google запустила Doppl — новое приложение для виртуальной примерки одежды с помощью ИИ
  2. Imagen 4 — новая модель генерации изображений от Google
  3. Google выводит модель генерации музыки Lyria RealTime в публичный API
  4. Google внедряет AI-режим шопинга с отслеживанием цен, “умной” корзиной и виртуальной примеркой
  5. В NotebookLM от Google появились видео-обзоры и мобильные приложения
← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!