AI-модели Apple разочаровали в тестах производительности
Apple представила обновления своих AI-моделей Apple Intelligence, однако даже по собственным бенчмаркам результаты оказались ниже ожиданий. Так, локальная модель Apple On-Device (3 млрд параметров), доступная офлайн на устройствах, показала качество текста, сопоставимое с аналогичными по размеру моделями
Google и Alibaba, но не превзошла их. Более мощная Apple Server, работающая в дата-центрах, уступила GPT-4o от
OpenAI, а в задачах анализа изображений — модели Llama 4 Scout от
Meta.
Согласно тестам, Apple Server отстает даже от моделей, которые в других сравнениях считаются менее производительными. Это подтверждает сообщения о трудностях AI-подразделения Apple в конкуренции с лидерами индустрии. Ранее обещанное обновление Siri отложено на неопределенный срок, а некоторые пользователи подали иски за «маркетинг несуществующих AI-функций».
Тем не менее, обе модели Apple — On-Device и Server — теперь поддерживают ~15 языков, более эффективно используют инструменты и доступны разработчикам через Foundation Models. Они обучались на расширенных датасетах с изображениями, PDF-документами и инфографикой.
Читайте также
OpenAI заключила неожиданную сделку с Google Cloud несмотря на жёсткую конкуренцию в AI
Новый ИИ Google для роботов работает без облака и уже может завязывать шнурки
Новое исследование Apple: действительно ли ИИ-модели способны к рассуждению?
Новый AI-агент ChatGPT умеет пользоваться браузером и создавать презентации
Чат-боты с ИИ говорят пользователям то, что им хочется услышать — и это проблема
TechCrunch