T-Pro 2.0 — открытая гибридно-ризонинговая русскоязычная LLM

Опубликована новая версия открытой русскоязычной LLM — T-Pro 2.0, разработанная командой Т-Банка на базе Qwen3 32B с глубокой оптимизацией под кириллические языки. Важной особенностью стала гибридная архитектура reasoning, что позволяет генерировать цепочки рассуждений перед финальным ответом. Это особенно полезно для сложных задач, включая математику и алгоритмы.

  • Улучшена токенизация: кириллическая часть увеличена в 5 раз, итоговый токенизатор на 30% эффективнее для русского, а инференс ускорился в 1,5–3 раза.
  • Модель дообучена на 140B токенов, с фокусом на reasoning-данные, SFT-корпусе из 500k инструкций и многоуровневой фильтрацией для качества.
  • Результаты на бенчмарках: T-Pro 2.0 лидирует среди open-source моделей ≤35B параметров на русском в задачах reasoning и математики. Примеры: Arena Hard Ru — 87,6 балла, T-Math — 0,541.
  • Открыт SFT-датасет T-Wix (~500k инструкций) для обучения LLM на русском, также представлен собственный математический бенчмарк T-Math.
  • Длина контекста до 32k токенов (с поддержкой до 128k через RoPE scaling), потенциально применима для сложных задач и дообучения.
  • Модель распространяется открыто, однако требует осторожности для production: возможны галлюцинации, рекомендуется использовать RAG и кастомные проверки.

Выпуск T-Pro 2.0 — важный шаг для развития отечественных LLM и расширения экосистемы open-source AI на русском языке. Команда приглашает к обсуждению, тестированию и использованию инструмента в своих продуктах и исследованиях.

← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!