Как Meta* убила Llama, чтобы спасти свой ИИ-бизнес

1 перевела ставку с открытой Llama на закрытую Muse Spark и, по версии автора, тем самым резко изменила правила для разработчиков, которые строили продукты на open-source-стеке компании. В тексте собраны и причины этого разворота, и практические варианты для команд, которым теперь нужно решать, мигрировать ли с Llama.

Meta запустила Muse Spark как закрытую замену семейству Llama: веса недоступны, пути обновления для существующих проектов нет. Поворот последовал после слабого приёма Llama 4 и девятимесячной перестройки ИИ-стека под руководством Александра Ванга, пришедшего в Meta в рамках сделки со Scale AI на 14,3 млрд долларов. По бенчмаркам Muse Spark выглядит сильной мультимодальной моделью: 50,4% на Humanity's Last Exam и 52 балла в индексе Artificial Analysis, но в кодировании и долгих агентных задачах сама Meta признаёт отставание.

Muse Spark работает сразу с текстом, изображениями, видео и аудио, а её режим Contemplating оркестрирует несколько рассуждающих агентов внутри инфраструктуры Meta. При этом для команд на Llama это не апгрейд, а смена режима: локально скачать новую модель нельзя, дообученные версии и LoRA некуда переносить напрямую, а обещания Meta о будущих open-source-релизах остаются без сроков. Автор связывает этот разворот не только с качеством модели, но и с экономикой: при расходах Meta на ИИ-инфраструктуру свыше 115 миллиардов долларов открытый код перестал выглядеть выгодной стратегией.

Отдельно в тексте вынесены риски приватности и безопасности. В приложении Meta AI бот предлагает загружать медицинские данные без явных предупреждений о пределах их использования, а вскоре после запуска пользователь Reddit смог вытащить системный промпт Muse Spark простой просьбой. Практический вывод для команд сводится к трём вариантам: тестировать открытые альтернативы вроде DeepSeek и Mistral, временно оставаться на Llama 4 с датой пересмотра решения или строить абстрактный слой с роутингом между несколькими моделями.

Коротко

  • Muse Spark запущена как закрытая замена Llama: веса не опубликованы, а у команд, которые уже строили на Llama, нет прямого пути обновления.
  • По данным статьи, Muse Spark набрала 50,4% на Humanity's Last Exam и 52 балла в индексе Artificial Analysis, заняв четвёртое место после Gemini, GPT-5.4 и Claude.
  • Meta признаёт слабые места новой модели в кодировании и долгих агентных задачах, хотя в мультимодальном рассуждении она заметно сильнее Llama 4.
  • Разворот объясняется не только качеством модели, но и экономикой: при капитальных расходах на ИИ свыше 115 млрд долларов open source перестал выглядеть выгодным.
  • Для команд на Llama автор предлагает три сценария: миграция на открытые альтернативы, ожидание новых шагов Meta или абстрактный слой с роутингом между моделями.

FAQ

Зачем командам, которые уже используют Llama 4 в продакшене, сейчас делать аудит всех зависимостей, LoRA и дообученных версий, а не ждать следующих шагов Meta?

Потому что у Muse Spark нет открытых весов и прямого пути миграции. Без карты зависимостей нельзя понять, что критично для бизнеса, а что можно перенести или отключить.

В каких случаях в статье советуют сразу смотреть на DeepSeek или Mistral, а не оставаться на Llama 4 в ожидании новых open-source-релизов Meta?

Когда проекту нужны локальный инференс, защита данных или собственное дообучение. В этих сценариях открытые веса важнее ожидания API и будущих обещаний Meta.

Что даёт абстрактный слой с роутингом между Llama, Muse Spark API и альтернативами, и какой риск у такого подхода остаётся?

Он снижает зависимость от одного вендора и позволяет раздавать задачи разным моделям по типу нагрузки. Минус — дополнительная сложность и задержка, поэтому могут понадобиться кэширование и предрасчёт эмбеддингов.

Читайте также

  1. Opus 4.7, Codex управляет ПК, TTS от Google, а бренд кроссовок переходит в ИИ
  2. Локальный AI в Obsidian без подписок: рабочая связка с Ollama, Gemma 4 и Infio Copilot
  3. LLM-агент для поиска свободных доменов: автоматизация подбора
  4. Бесплатный API для нейросетей от NVIDIA: более 100 моделей, OpenAI-совместимый эндпоинт и 40 запросов в минуту
  5. Локальный запуск GLM-5.1
Ключевые инсайты из новости (по версии ChatGPT)
  • Риск зависимости от открытой модели одного вендора: Если компания строит продукт на open-source-модели конкретного вендора, ей нужен отдельный реестр зависимостей: где используется базовая модель, где есть LoRA, где есть дообучения и какие сценарии критичны для бизнеса. Иначе при резком переходе вендора на закрытую модель команда остаётся без понятного пути обновления и теряет время уже в момент кризиса.
    [Управление AI-стеком]
Для получения полного доступа оформите подписку PubMag PRO.
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Инсайты автоматически генерируются с помощью искусственного интеллекта на основе текста статьи.
← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!