Автор описывает опыт снижения стоимости LLM API через GonkaGate — API-шлюз к децентрализованной инференс-сети Gonka для open-source моделей. В тексте собраны объяснения механики, ориентиры по мощности/цене и ограничения ранней стадии проекта.Gonka описана как децентрализованная сеть для инференса open-source моделей; по публичному трекеру сети — около ~5.4k H100-эквивалентов (значение меняется).В декабре 2025 года Bitfury объявила об инвестиции $50M в Gonka в рамках программы на $1B поддержки децентрализованных AI-проектов.Снижение цены объясняется почти полной утилизацией compute и механизмом Sprint (Transformer-based Proof-of-Work) вместо традиционных PoW-хешей.Сеть агрегирует распределённые GPU-хосты; в спецификации упомянуты H100/H200 и A100 при минимуме 48 GB VRAM.Упоминается динамическое on-chain ценообразование, зависящее от загрузки сети.Текущий pricing в тексте указан как ~$0.0021 за 1M токенов (input+output) для всех моделей; GonkaGate предоставляет единый endpoint и оплату в USD.Почему это важно: Материал показывает «третий вариант» между дорогими централизованными API и трудоёмким self-hosting для небольших команд. Для сценариев с большим числом однотипных вызовов токен-оплата становится заметной статьёй расходов, и заявленный ценовой уровень меняет экономику экспериментов и автоматизаций. Отдельный акцент — на OpenAI SDK-совместимом API-шлюзе, который снижает порог интеграции.На что обратить внимание: В тексте отдельно отмечены ранняя стадия сети и то, что допустимы редкие сбои, поэтому требования к uptime/SLA становятся ключевым ограничением применимости. Также подчёркивается «потолок» open-source моделей по сравнению с флагманскими проприетарными, особенно в творческом тексте и самых сложных многошаговых задачах. Ещё один неопределённый параметр — динамика доступного compute и цены, которые зависят от загрузки и могут меняться.