RAG-помощник для команды техподдержки своими руками
МТС Web Services описывает, как команда SRE и техподдержки кластера рекламных технологий построила собственного RAG-помощника для работы с Confluence и Jira. Стартовали с простого варианта: выгрузка базы знаний в JSON и загрузка в корпоративный сервис MWS GPT, но уперлись в необходимость вручную обновлять файлы, лимиты размера и ограниченный контроль над форматом ответов.
Дальше команда перешла к полноценной RAG-архитектуре через API MWS GPT: документы из нескольких пространств Confluence и проектов Jira режутся на чанки 2000–3000 символов с overlap, индексируются во векторной базе вместе с метаданными и инкрементально обновляются каждые 30 минут. Запрос пользователя конвертируется в эмбеддинг, по нему ищутся релевантные чанки, которые добавляются к промпту в LLM, а ответ возвращается вместе со списком источников и их релевантностью. Решение развёрнуто целиком во внутреннем контуре из соображений безопасности.
Качество системы проверяют через набор тест-кейсов и автоматические тесты с метрикой на основе векторного расстояния между запросом и ответом. Для повышения точности добавлен словарь синонимов, жаргонизмов и транслитераций (например, «постмортем»/«postmortem»), а более тяжёлые оптимизации запроса и LLM-ранжирование документов вынесены в опциональные настройки UI. В результате команда отмечает ускорение поиска, рост удовлетворённости сотрудников и смену подхода к документации в сторону коротких, пригодных для ИИ-интерпретации заметок, но подчёркивает, что RAG-помощник остаётся инструментом и сильно зависит от полноты и актуальности базы знаний.
Читайте также
Агентные системы для продакшена
ИИ и RAG: помощник по техническим вопросам для систем управления освещением
Тестовый стенд с автономным ИИ-агентом QA для тестирования бэкенда: концепция и пример
Лучшие практики работы с агентами для написания кода
Превращаем любой текст в модель знаний — и почему это удобно
- Ограничения LLM-помощников на файлах знаний: Корпоративный веб-интерфейс LLM с загрузкой файлов хорошо подходит только для быстрых экспериментов: каждый пользователь должен вручную прикладывать файл, база быстро устаревает, а размер ограничен. Формат ответов можно контролировать только через промпт, что усложняет стандартизацию и интеграцию в процессы. Для продуктивных сценариев нужен отдельный слой управления знаниями, а не загрузка статичных файлов.
[AI-инструменты поддержки]
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться