Расход токенов — не AI-стратегия
В статье сравниваются разные уровни AI-расходов: от общей частной инвестиционной волны в США до стоимости одного миллиона токенов. По данным Stanford HAI, частные инвестиции в ИИ в США достигли $285,9 млрд в 2025 году, а мощность AI-дата-центров выросла до 29,6 ГВт. В расчёте Devansh базовый инференс на Nvidia H100 может стоить около $0,0038 за миллион токенов при 100% загрузке, но при 30% загрузке цена растёт примерно до $0,013, а при 10% — до $0,038.
Эти расчёты плохо сравнивать напрямую с коммерческими API: Anthropic берёт $5 за миллион входных токенов и $25 за миллион выходных токенов для Opus 4.7, а у Google Gemma 4 26B A4B средняя входная цена через OpenRouter указана как $0,096 за миллион токенов. Devansh подчёркивает, что цена токена включает не только один вызов инференса, но и модель, исследования, обновления и операционные затраты. Поэтому расход токенов не равен продуктивности, даже если компании вроде
Meta1 и Shopify используют активность в AI-инструментах как KPI.
CEO Future Tech Enterprise Боб Венеро описывает другую проблему: крупные компании запускают AI-проекты, не всегда понимая, какой результат хотят получить. По его словам, из-за дефицита RAM и AI-бума отдельные затраты стали в 3 раза выше, чем шесть месяцев назад, а зависимость от облака добавляет риски безопасности и простоев. В его практике без подготовки до продакшена доходят около 15% прототипов, с нормальной постановкой целей — 45–50%, а проекты в духе «ИИ ради ИИ» могут давать около 5% успешных внедрений.
Коротко
- Stanford HAI оценивает частные AI-инвестиции в США в 2025 году в $285,9 млрд, а мощность AI-дата-центров — в 29,6 ГВт.
- Расчёт Devansh для H100 даёт $0,0038 за миллион токенов при 100% загрузке, но $0,013 при 30% и $0,038 при 10%.
- Anthropic берёт $5 за миллион входных и $25 за миллион выходных токенов Opus 4.7; цена API включает больше, чем инференс.
- Devansh считает токены плохой метрикой продуктивности: высокий AI-расход может быть просто новым аналогом подсчёта строк кода.
- Future Tech Enterprise связывает рост AI-затрат с дефицитом RAM и говорит, что постановка целей повышает шанс вывода прототипов в продакшен.
FAQ
Зачем компаниям считать не только цену токенов, но и цель, инфраструктуру, загрузку мощностей и ожидаемый бизнес-результат от AI-проекта?
Потому что цена токена показывает только часть затрат. Реальная стоимость AI зависит от модели, железа, загрузки, облачных рисков, поддержки и того, приносит ли проект измеримый результат.
Почему использование токенов как KPI может искажать оценку продуктивности сотрудников и команд, работающих с AI-инструментами?
Расход токенов показывает активность, но не доказывает полезный результат. В статье это сравнивается с устаревшими метриками вроде подсчёта строк кода или количества набранных слов.
Когда, по позиции Future Tech Enterprise, компании стоит думать об on-prem AI вместо полностью облачного потребления AI-сервисов?
Если простой облачного сервиса может стоить очень дорого, компании нужны дополнительные контроли. В таких случаях on-prem может быть предпочтительнее из-за рисков доступности и безопасности.
Читайте также
Альтман в панике: зачем ChatGPT превратили в рекламную помойку и почему это не спасёт OpenAI
Как тимлид заменил десятки вкладок на файловую систему и Claude Code
Динамический ресайзинг изображений (Image Previewer)
Продавцы Amazon устали от изменений политик и комиссий: «это как смерть от тысячи порезов»
Как научить LLM исправлять код без лишних изменений
- Оценивать AI-проекты нужно от бизнес-результата, а не от расхода токенов: Расход токенов показывает интенсивность использования AI-инструмента, но не доказывает рост продуктивности или пользу для бизнеса. Для внутренних AI-сервисов и автоматизаций сначала нужно фиксировать цель, ожидаемый результат, способ измерения и только потом считать стоимость модели, API или инфраструктуры.
[AI / Оценка эффективности]
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
The Register разбирает, почему расход токенов сам по себе не является AI-стратегией. Стоимость ИИ зависит не только от цены инференса, но и от загрузки железа, модели, инфраструктуры, рисков, качества внедрения и измеримого бизнес-результата.