Как мы ускорили проверку документации с помощью AI-агента: от боли к решению

внедрил task-oriented AI-агента Desmond для автоматизации ревью внутренней документации в Альфа-Онлайн. Агент запускается по вебхуку из Jira, анализирует документы в HTML, сопоставляет их с «LLM-читаемым» стандартом и публикует вывод в задаче. Стек: Java 21 + Spring AI; open-source LLM Qwen-72B через внутренний сервис AlfaGen (без fine-tuning и RAG); Docker/Kubernetes; Redis; jsoup. Используются few-shot промпты, строгие форматы Structured Output, логическое и равномерное чанкование, а также кросс-проверки между разделами.

Результаты: медианное время статуса Docs review сократилось с 1:55 до 1:19 (-31,3%); при параллелизации на виртуальных потоках Java отдельные проверки ускорились с ~1:20 до ~26 сек. Решены ключевые проблемы LLM-практики: «скрытые» элементы в Confluence (парсинг HTML), лимиты токенов (чанкование + очистка шума), нестабильность ответов (жёсткие схемы вывода), вариативность качества ревью (единый стандарт).

  • Особенности: бездиалоговый агент, реактивный запуск, единообразные отчёты, планируется глубокая интеграция с Confluence и массовые проверки по пространствам.
  • Ограничения: очень большие документы, проверка содержания макетов, нетиповые структуры.
Ключевые инсайты из новости (по версии ChatGPT)
  • LLM-читаемые стандарты: Человеческие регламенты нужно конвертировать в «LLM-читаемый» формат: явные правила, поля, допустимые значения, примеры «правильно/неправильно» для каждого пункта. Это резко снижает вариативность ответов модели и повышает воспроизводимость проверок.
    [Регламент]
Для получения полного доступа оформите подписку PubMag PRO.
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Инсайты автоматически генерируются с помощью искусственного интеллекта на основе текста статьи.
← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!