Apple выбирает Google Gemini для крупного обновления Siri

Apple объявила, что будет использовать модель Google Gemini для более персонализированной Siri, релиз которой ожидается в этом году. Партнёрство также привязано к развитию Apple Intelligence и гибридной модели вычислений (на устройстве и в облаке).

  • Apple заявила, что будет использовать AI-модель Google Gemini для более персонализированной Siri, которая ожидается в этом году.
  • Apple и Google сообщили, что Apple выбрала технологию Google как основу для Apple Foundation Models.
  • CNBC сообщало о многолетнем партнёрстве, в рамках которого Apple сможет использовать Gemini и облачные технологии Google для будущих моделей.
  • Apple и Google отметили, что эти модели будут поддерживать будущие функции Apple Intelligence; при этом Apple Intelligence продолжит работать на устройствах Apple и в Private Cloud Compute.
  • Apple работала над AI-обновлением Siri около года; обновление было отложено в марте прошлого года, так как реализация заняла больше времени, чем ожидалось.
  • По данным Bloomberg, Apple рассматривала кастомную версию Gemini для функций в Siri, включая 'World Knowledge Answers' с AI-сводками на базе результатов из веба; также сообщалось о перестановках в AI-команде и о том, что Apple изучала сотрудничество с Anthropic и Perplexity.

Почему это важно: Выбор Gemini показывает, что для крупного обновления ассистента Apple опирается на внешнюю модель, а не только на собственные разработки. На практике такие партнёрства обычно ускоряют вывод функций на рынок, но усиливают зависимость от экосистемы поставщика модели и облачной инфраструктуры. В тексте отдельно подчёркивается гибридная схема: часть вычислений остаётся локально, а часть уходит в Private Cloud Compute, что влияет на продуктовую архитектуру и коммуникацию про приватность.

На что обратить внимание: В заявлении говорится именно о более персонализированной Siri и поддержке будущих функций Apple Intelligence, но без детализации, какие сценарии будут доступны и как будет измеряться эффект. Упоминается, что Apple Intelligence продолжит работать на устройствах и в Private Cloud Compute, однако границы между локальными и облачными задачами в тексте не раскрываются. Также в одном из сообщений Bloomberg фигурирует идея 'World Knowledge Answers' с AI-сводками из веба — это может означать более тесное сближение ассистента и AI-поиска, но конкретика не описана.

Коротко

  • Apple заявила, что для крупного обновления Siri будет использовать модель Google Gemini; более персонализированная версия ассистента ожидается в этом году.
  • Партнёрство описывается как многолетнее: Apple сможет использовать Gemini и облачные технологии Google для будущих моделей и функций Apple Intelligence.
  • В тексте подчёркнута гибридная архитектура: Apple Intelligence продолжит работать на устройствах Apple и в Private Cloud Compute.
  • Сигнал для продуктовых команд: крупные AI-функции могут собираться из внешних моделей и собственного слоя, если это ускоряет запуск и расширяет сценарии.
  • В сообщении упоминаются AI-сводки по результатам из веба; обычно это означает рост требований к качеству источников и управлению ошибками ответов.

FAQ

Зачем это важно: почему выбор Google Gemini для Siri может повлиять на то, как Apple будет развивать Apple Intelligence и связанные функции?

В тексте говорится, что Gemini станет основой для будущих моделей и будет помогать функциям Apple Intelligence, включая более персонализированную Siri. Также подчёркнута гибридная схема работы на устройстве и в Private Cloud Compute.

Что именно объявили Apple и Google: о каком партнёрстве идёт речь и какую роль в нём играют облачные технологии Google?

Это многолетнее партнёрство, о котором ранее сообщало CNBC, и оно позволяет Apple использовать Gemini и облачные технологии Google для будущих моделей. В совместном заявлении также говорится, что эти модели помогут функциям Apple Intelligence.

Что в тексте сказано про сроки и готовность Siri: когда ожидается обновление и что известно о предыдущей задержке проекта?

Apple и Google говорят о более персонализированной Siri, которая ожидается в этом году. В тексте также указано, что Apple отложила обновление в марте прошлого года, объяснив это тем, что разработка заняла больше времени, чем ожидалось.

Какие альтернативы и дополнительные направления упоминаются: рассматривала ли Apple другие модели и какие изменения произошли в AI-команде?

По данным Bloomberg, Apple рассматривала кастомную версию Gemini и также изучала сотрудничество с Anthropic и Perplexity, при этом Тим Кук говорил о планах интеграций с большим числом AI-компаний. Там же сообщалось о перестановках в AI-команде и замене руководителя AI-направления.

Читайте также

  1. «Holy shit»: Gemini 3 выигрывает гонку ИИ — по крайней мере сейчас
  2. Apple проиграла гонку ИИ — теперь начинается настоящий вызов
  3. Хронический ИИ-провал: От Siri до Apple Intelligence
  4. Google может потерять статус «крёстного отца поиска» из-за роста AI-инструментов
  5. I/O против io: Google и OpenAI продолжают соперничать за внимание и влияние
Ключевые инсайты из новости (по версии ChatGPT)
  • Модель партнёрства: внешний LLM как основа ассистента: Apple публично зафиксировала подход, при котором внешняя модель (Google Gemini) используется как ключевая основа для крупных продуктовых AI-функций, включая персонализацию голосового ассистента. Для продуктовой и инженерной команд это пример того, что «собственная AI-платформа» может строиться поверх стороннего ядра при формальной оценке и выборе поставщика.
    [Продукт / AI-платформа]
Для получения полного доступа оформите подписку PubMag PRO.
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Инсайты автоматически генерируются с помощью искусственного интеллекта на основе текста статьи.
← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!