RAG-помощник для команды техподдержки своими руками
МТС Web Services описывает, как команда SRE и техподдержки кластера рекламных технологий построила собственного RAG-помощника для работы с Confluence и Jira. Стартовали с простого варианта: выгрузка базы знаний в JSON и загрузка в корпоративный сервис MWS GPT, но уперлись в необходимость вручную обновлять файлы, лимиты размера и ограниченный контроль над форматом ответов.
Дальше команда перешла к полноценной RAG-архитектуре через API MWS GPT: документы из нескольких пространств Confluence и проектов Jira режутся на чанки 2000–3000 символов с overlap, индексируются во векторной базе вместе с метаданными и инкрементально обновляются каждые 30 минут. Запрос пользователя конвертируется в эмбеддинг, по нему ищутся релевантные чанки, которые добавляются к промпту в LLM, а ответ возвращается вместе со списком источников и их релевантностью. Решение развёрнуто целиком во внутреннем контуре из соображений безопасности.
Качество системы проверяют через набор тест-кейсов и автоматические тесты с метрикой на основе векторного расстояния между запросом и ответом. Для повышения точности добавлен словарь синонимов, жаргонизмов и транслитераций (например, «постмортем»/«postmortem»), а более тяжёлые оптимизации запроса и LLM-ранжирование документов вынесены в опциональные настройки UI. В результате команда отмечает ускорение поиска, рост удовлетворённости сотрудников и смену подхода к документации в сторону коротких, пригодных для ИИ-интерпретации заметок, но подчёркивает, что RAG-помощник остаётся инструментом и сильно зависит от полноты и актуальности базы знаний.
Читайте также
Превращаем любой текст в модель знаний — и почему это удобно
Skills: что это и как использовать в Cursor и Claude Code
Как за вечер собрать простую RAG-систему на PHP с Neuron AI
ИИ-темплейты для Obsidian Templater для развития знаний
Clinch улучшает DAM: запускает каталог шаблонов креативов и AI-функцию Atomic
- Ограничения LLM-помощников на файлах знаний: Корпоративный веб-интерфейс LLM с загрузкой файлов хорошо подходит только для быстрых экспериментов: каждый пользователь должен вручную прикладывать файл, база быстро устаревает, а размер ограничен. Формат ответов можно контролировать только через промпт, что усложняет стандартизацию и интеграцию в процессы. Для продуктивных сценариев нужен отдельный слой управления знаниями, а не загрузка статичных файлов.
[AI-инструменты поддержки]
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться