Как Meta* убила Llama, чтобы спасти свой ИИ-бизнес
Meta запустила Muse Spark как закрытую замену семейству Llama: веса недоступны, пути обновления для существующих проектов нет. Поворот последовал после слабого приёма Llama 4 и девятимесячной перестройки ИИ-стека под руководством Александра Ванга, пришедшего в Meta в рамках сделки со Scale AI на 14,3 млрд долларов. По бенчмаркам Muse Spark выглядит сильной мультимодальной моделью: 50,4% на Humanity's Last Exam и 52 балла в индексе Artificial Analysis, но в кодировании и долгих агентных задачах сама Meta признаёт отставание.
Muse Spark работает сразу с текстом, изображениями, видео и аудио, а её режим Contemplating оркестрирует несколько рассуждающих агентов внутри инфраструктуры Meta. При этом для команд на Llama это не апгрейд, а смена режима: локально скачать новую модель нельзя, дообученные версии и LoRA некуда переносить напрямую, а обещания Meta о будущих open-source-релизах остаются без сроков. Автор связывает этот разворот не только с качеством модели, но и с экономикой: при расходах Meta на ИИ-инфраструктуру свыше 115 миллиардов долларов открытый код перестал выглядеть выгодной стратегией.
Отдельно в тексте вынесены риски приватности и безопасности. В приложении Meta AI бот предлагает загружать медицинские данные без явных предупреждений о пределах их использования, а вскоре после запуска пользователь Reddit смог вытащить системный промпт Muse Spark простой просьбой. Практический вывод для команд сводится к трём вариантам: тестировать открытые альтернативы вроде DeepSeek и Mistral, временно оставаться на Llama 4 с датой пересмотра решения или строить абстрактный слой с роутингом между несколькими моделями.
Коротко
- Muse Spark запущена как закрытая замена Llama: веса не опубликованы, а у команд, которые уже строили на Llama, нет прямого пути обновления.
- По данным статьи, Muse Spark набрала 50,4% на Humanity's Last Exam и 52 балла в индексе Artificial Analysis, заняв четвёртое место после Gemini, GPT-5.4 и Claude.
- Meta признаёт слабые места новой модели в кодировании и долгих агентных задачах, хотя в мультимодальном рассуждении она заметно сильнее Llama 4.
- Разворот объясняется не только качеством модели, но и экономикой: при капитальных расходах на ИИ свыше 115 млрд долларов open source перестал выглядеть выгодным.
- Для команд на Llama автор предлагает три сценария: миграция на открытые альтернативы, ожидание новых шагов Meta или абстрактный слой с роутингом между моделями.
FAQ
Зачем командам, которые уже используют Llama 4 в продакшене, сейчас делать аудит всех зависимостей, LoRA и дообученных версий, а не ждать следующих шагов Meta?
Потому что у Muse Spark нет открытых весов и прямого пути миграции. Без карты зависимостей нельзя понять, что критично для бизнеса, а что можно перенести или отключить.
В каких случаях в статье советуют сразу смотреть на DeepSeek или Mistral, а не оставаться на Llama 4 в ожидании новых open-source-релизов Meta?
Когда проекту нужны локальный инференс, защита данных или собственное дообучение. В этих сценариях открытые веса важнее ожидания API и будущих обещаний Meta.
Что даёт абстрактный слой с роутингом между Llama, Muse Spark API и альтернативами, и какой риск у такого подхода остаётся?
Он снижает зависимость от одного вендора и позволяет раздавать задачи разным моделям по типу нагрузки. Минус — дополнительная сложность и задержка, поэтому могут понадобиться кэширование и предрасчёт эмбеддингов.
Читайте также
Opus 4.7, Codex управляет ПК, TTS от Google, а бренд кроссовок переходит в ИИ
Локальный AI в Obsidian без подписок: рабочая связка с Ollama, Gemma 4 и Infio Copilot
LLM-агент для поиска свободных доменов: автоматизация подбора
Бесплатный API для нейросетей от NVIDIA: более 100 моделей, OpenAI-совместимый эндпоинт и 40 запросов в минуту
Локальный запуск GLM-5.1
- Риск зависимости от открытой модели одного вендора: Если компания строит продукт на open-source-модели конкретного вендора, ей нужен отдельный реестр зависимостей: где используется базовая модель, где есть LoRA, где есть дообучения и какие сценарии критичны для бизнеса. Иначе при резком переходе вендора на закрытую модель команда остаётся без понятного пути обновления и теряет время уже в момент кризиса.
[Управление AI-стеком]
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Meta1 перевела ставку с открытой Llama на закрытую Muse Spark и, по версии автора, тем самым резко изменила правила для разработчиков, которые строили продукты на open-source-стеке компании. В тексте собраны и причины этого разворота, и практические варианты для команд, которым теперь нужно решать, мигрировать ли с Llama.