Новый ИИ Google для роботов работает без облака и уже может завязывать шнурки
Google DeepMind представила новый подход к робототехнике на базе искусственного интеллекта: автономную версию VLA-модели (vision-language-action), которая может управлять роботами полностью локально, без подключения к облаку. Это принципиальное отличие от прошлых версий
Gemini Robotics, где использовалась гибридная архитектура: небольшой ИИ работал на самом роботе, а основной анализ — в облаке.
Локальная модель позволяет роботам работать без задержек, что критически важно для выполнения физических задач в реальном времени, например, для завязывания шнурков или манипуляций с объектами. Такой подход также обеспечивает большую устойчивость к сбоям связи и повышает надёжность в нестандартных ситуациях. Кроме того, разработчики теперь могут дообучать модель под собственные задачи, расширяя сценарии использования.
Google отмечает, что генеративный ИИ с мультимодальным восприятием (текст, изображение, действия) открывает путь к быстрой генерализации поведения роботов и позволяет адаптироваться к новым задачам без необходимости долгого обучения. В долгосрочной перспективе такой подход может ускорить интеграцию роботов в бытовые и промышленные процессы, где автономия и быстрота реакции становятся ключевыми конкурентными преимуществами.
Читайте также
Новое исследование Apple: действительно ли ИИ-модели способны к рассуждению?
Google объединяет Chrome OS и Android: что это значит для рынка
Google выпускает обновлённую версию Gemini 2.5 Pro для исправления прошлых “регрессий”
Wikipedia приостанавливает AI-саммари после резкого протеста редакторов
Учёные создали робота-бадминтониста с искусственным интеллектом