Apple выбирает Google Gemini для крупного обновления Siri

объявила, что будет использовать модель для более персонализированной Siri, релиз которой ожидается в этом году. Партнёрство также привязано к развитию Apple Intelligence и гибридной модели вычислений (на устройстве и в облаке).

  • Apple заявила, что будет использовать AI-модель Google Gemini для более персонализированной Siri, которая ожидается в этом году.
  • Apple и Google сообщили, что Apple выбрала технологию Google как основу для Apple Foundation Models.
  • CNBC сообщало о многолетнем партнёрстве, в рамках которого Apple сможет использовать Gemini и облачные технологии Google для будущих моделей.
  • Apple и Google отметили, что эти модели будут поддерживать будущие функции Apple Intelligence; при этом Apple Intelligence продолжит работать на устройствах Apple и в Private Cloud Compute.
  • Apple работала над AI-обновлением Siri около года; обновление было отложено в марте прошлого года, так как реализация заняла больше времени, чем ожидалось.
  • По данным Bloomberg, Apple рассматривала кастомную версию Gemini для функций в Siri, включая 'World Knowledge Answers' с AI-сводками на базе результатов из веба; также сообщалось о перестановках в AI-команде и о том, что Apple изучала сотрудничество с и .

Почему это важно: Выбор Gemini показывает, что для крупного обновления ассистента Apple опирается на внешнюю модель, а не только на собственные разработки. На практике такие партнёрства обычно ускоряют вывод функций на рынок, но усиливают зависимость от экосистемы поставщика модели и облачной инфраструктуры. В тексте отдельно подчёркивается гибридная схема: часть вычислений остаётся локально, а часть уходит в Private Cloud Compute, что влияет на продуктовую архитектуру и коммуникацию про приватность.

На что обратить внимание: В заявлении говорится именно о более персонализированной Siri и поддержке будущих функций Apple Intelligence, но без детализации, какие сценарии будут доступны и как будет измеряться эффект. Упоминается, что Apple Intelligence продолжит работать на устройствах и в Private Cloud Compute, однако границы между локальными и облачными задачами в тексте не раскрываются. Также в одном из сообщений Bloomberg фигурирует идея 'World Knowledge Answers' с AI-сводками из веба — это может означать более тесное сближение ассистента и AI-поиска, но конкретика не описана.

Читайте также

  1. Apple проиграла гонку ИИ — теперь начинается настоящий вызов
  2. Что означает сделка Apple и Google по Gemini для обеих компаний
  3. «Holy shit»: Gemini 3 выигрывает гонку ИИ — по крайней мере сейчас
  4. AI Inbox от Google может стать взглядом в будущее Gmail
  5. Вице-президент Google объяснил, почему реклама уместна в AI-поиске, но пока не в Gemini
Ключевые инсайты из новости (по версии ChatGPT)
  • Модель партнёрства: внешний LLM как основа ассистента: Apple публично зафиксировала подход, при котором внешняя модель (Google Gemini) используется как ключевая основа для крупных продуктовых AI-функций, включая персонализацию голосового ассистента. Для продуктовой и инженерной команд это пример того, что «собственная AI-платформа» может строиться поверх стороннего ядра при формальной оценке и выборе поставщика.
    [Продукт / AI-платформа]
Для получения полного доступа оформите подписку PubMag PRO.
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Инсайты автоматически генерируются с помощью искусственного интеллекта на основе текста статьи.
← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!