Apple выбирает Google Gemini для крупного обновления Siri
- Apple заявила, что будет использовать AI-модель Google Gemini для более персонализированной Siri, которая ожидается в этом году.
- Apple и Google сообщили, что Apple выбрала технологию Google как основу для Apple Foundation Models.
- CNBC сообщало о многолетнем партнёрстве, в рамках которого Apple сможет использовать Gemini и облачные технологии Google для будущих моделей.
- Apple и Google отметили, что эти модели будут поддерживать будущие функции Apple Intelligence; при этом Apple Intelligence продолжит работать на устройствах Apple и в Private Cloud Compute.
- Apple работала над AI-обновлением Siri около года; обновление было отложено в марте прошлого года, так как реализация заняла больше времени, чем ожидалось.
- По данным Bloomberg, Apple рассматривала кастомную версию Gemini для функций в Siri, включая 'World Knowledge Answers' с AI-сводками на базе результатов из веба; также сообщалось о перестановках в AI-команде и о том, что Apple изучала сотрудничество с
Anthropic и
Perplexity.
Почему это важно: Выбор Gemini показывает, что для крупного обновления ассистента Apple опирается на внешнюю модель, а не только на собственные разработки. На практике такие партнёрства обычно ускоряют вывод функций на рынок, но усиливают зависимость от экосистемы поставщика модели и облачной инфраструктуры. В тексте отдельно подчёркивается гибридная схема: часть вычислений остаётся локально, а часть уходит в Private Cloud Compute, что влияет на продуктовую архитектуру и коммуникацию про приватность.
На что обратить внимание: В заявлении говорится именно о более персонализированной Siri и поддержке будущих функций Apple Intelligence, но без детализации, какие сценарии будут доступны и как будет измеряться эффект. Упоминается, что Apple Intelligence продолжит работать на устройствах и в Private Cloud Compute, однако границы между локальными и облачными задачами в тексте не раскрываются. Также в одном из сообщений Bloomberg фигурирует идея 'World Knowledge Answers' с AI-сводками из веба — это может означать более тесное сближение ассистента и AI-поиска, но конкретика не описана.
Читайте также
Apple проиграла гонку ИИ — теперь начинается настоящий вызов
Что означает сделка Apple и Google по Gemini для обеих компаний
«Holy shit»: Gemini 3 выигрывает гонку ИИ — по крайней мере сейчас
AI Inbox от Google может стать взглядом в будущее Gmail
Вице-президент Google объяснил, почему реклама уместна в AI-поиске, но пока не в Gemini
- Модель партнёрства: внешний LLM как основа ассистента: Apple публично зафиксировала подход, при котором внешняя модель (Google Gemini) используется как ключевая основа для крупных продуктовых AI-функций, включая персонализацию голосового ассистента. Для продуктовой и инженерной команд это пример того, что «собственная AI-платформа» может строиться поверх стороннего ядра при формальной оценке и выборе поставщика.
[Продукт / AI-платформа]
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Apple объявила, что будет использовать модель
Google
Gemini для более персонализированной Siri, релиз которой ожидается в этом году. Партнёрство также привязано к развитию Apple Intelligence и гибридной модели вычислений (на устройстве и в облаке).