Google выпускает миниатюрную открытую модель ИИ Gemma
Google представила Gemma 3 270M — «карманную» версию открытой модели Gemma, рассчитанную на локальный запуск на смартфонах и даже в браузере. При 270 млн параметров новинка ориентирована на приватные и низколатентные сценарии и «быструю» донастройку. Это дополняет линейку Gemma 3 (1–27 млрд параметров), где традиционно больше параметров означают выше точность, но и более дорогую инфраструктуру.
В тестах на Pixel 9 Pro (чип Tensor G4) модель обработала 25 разговоров, израсходовав лишь 0,75% заряда — самый эффективный представитель семейства Gemma. По бенчмарку IFEval (следование инструкциям) Gemma 3 270M набирает 51,2%, опережая ряд более «тяжёлых» лёгковесов. При этом она предсказуемо уступает моделям 1B+ класса (например, Llama 3.2), но удивляет близостью результатов при существенно меньшем размере.
- 270M параметров; локальный запуск на устройстве/в браузере, быстрый файнтюнинг.
- Энергоэффективность: ~25 диалогов на Pixel 9 Pro при 0,75% батареи.
- IFEval: 51,2% — выше ряда конкурентов с большим числом параметров.
- Компромисс производительности против облачных/крупных моделей, но выигрыш в приватности и задержке.
Читайте также
Ретроспектива 2025: год LLM — практика, иллюзия и реальные сдвиги
Как я переделал свой мини-ПК и зачем мне это было нужно
Lamoda запускает «Г(ии)д по стилю» для онлайн-примерки вещей
«Вам нужны партнеры, а не подрядчики»: как запустить ИИ-проект, который принесет реальную пользу бизнесу
В Meta* назревает конфликт вокруг руководства ИИ
- On-device LLM для adtech: когда и зачем: Gemma 3 270M рассчитана на локальный запуск на смартфонах и даже в браузере, что снижает задержку и убирает передачу пользовательских данных в облако. Такой режим подходит для задач ранжирования креативов, локальной категоризации контента и lightweight-персонализации без серверной телеметрии.
[архитектурный паттерн]
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Ars Technica