Как мы ускорили проверку документации с помощью AI-агента: от боли к решению
Альфа-Банк внедрил task-oriented AI-агента Desmond для автоматизации ревью внутренней документации в Альфа-Онлайн. Агент запускается по вебхуку из Jira, анализирует документы в HTML, сопоставляет их с «LLM-читаемым» стандартом и публикует вывод в задаче. Стек: Java 21 + Spring AI; open-source LLM Qwen-72B через внутренний сервис AlfaGen (без fine-tuning и RAG); Docker/Kubernetes; Redis; jsoup. Используются few-shot промпты, строгие форматы Structured Output, логическое и равномерное чанкование, а также кросс-проверки между разделами.
Результаты: медианное время статуса Docs review сократилось с 1:55 до 1:19 (-31,3%); при параллелизации на виртуальных потоках Java отдельные проверки ускорились с ~1:20 до ~26 сек. Решены ключевые проблемы LLM-практики: «скрытые» элементы в Confluence (парсинг HTML), лимиты токенов (чанкование + очистка шума), нестабильность ответов (жёсткие схемы вывода), вариативность качества ревью (единый стандарт).
- Особенности: бездиалоговый агент, реактивный запуск, единообразные отчёты, планируется глубокая интеграция с Confluence и массовые проверки по пространствам.
- Ограничения: очень большие документы, проверка содержания макетов, нетиповые структуры.
Читайте также
Ошибки вне отчетов: как бизнес снижает риски через ИИ-проверку знаний
Архитектура LLM-агентов: планирование, память и инструменты на практике
ИИ, который программирует и эволюционирует сам: Sakana AI анонсировала Darwin Gödel Machine
Мой первый AI-агент: личный опыт создания и реальность работы
Как использовать GenAI-инструменты для подготовки и проведения встреч 1:1 менеджера с сотрудником
- LLM-читаемые стандарты: Человеческие регламенты нужно конвертировать в «LLM-читаемый» формат: явные правила, поля, допустимые значения, примеры «правильно/неправильно» для каждого пункта. Это резко снижает вариативность ответов модели и повышает воспроизводимость проверок.
[Регламент]
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться