RAG-помощник для команды техподдержки своими руками

Web Services описывает, как команда SRE и техподдержки кластера рекламных технологий построила собственного RAG-помощника для работы с Confluence и Jira. Стартовали с простого варианта: выгрузка базы знаний в JSON и загрузка в корпоративный сервис MWS GPT, но уперлись в необходимость вручную обновлять файлы, лимиты размера и ограниченный контроль над форматом ответов.

Дальше команда перешла к полноценной RAG-архитектуре через API MWS GPT: документы из нескольких пространств Confluence и проектов Jira режутся на чанки 2000–3000 символов с overlap, индексируются во векторной базе вместе с метаданными и инкрементально обновляются каждые 30 минут. Запрос пользователя конвертируется в эмбеддинг, по нему ищутся релевантные чанки, которые добавляются к промпту в LLM, а ответ возвращается вместе со списком источников и их релевантностью. Решение развёрнуто целиком во внутреннем контуре из соображений безопасности.

Качество системы проверяют через набор тест-кейсов и автоматические тесты с метрикой на основе векторного расстояния между запросом и ответом. Для повышения точности добавлен словарь синонимов, жаргонизмов и транслитераций (например, «постмортем»/«postmortem»), а более тяжёлые оптимизации запроса и LLM-ранжирование документов вынесены в опциональные настройки UI. В результате команда отмечает ускорение поиска, рост удовлетворённости сотрудников и смену подхода к документации в сторону коротких, пригодных для ИИ-интерпретации заметок, но подчёркивает, что RAG-помощник остаётся инструментом и сильно зависит от полноты и актуальности базы знаний.

Читайте также

  1. Превращаем любой текст в модель знаний — и почему это удобно
  2. Кейс Т-Банка для позиции AI-продакт-менеджера
  3. Big Data МТС превращает Telegram Ads в машину предсказуемого роста
  4. Как за вечер собрать простую RAG-систему на PHP с Neuron AI
  5. Мульти-модельная оркестрация LLM: архитектура маршрутизации, которая снизила затраты в 117 раз
Ключевые инсайты из новости (по версии ChatGPT)
  • Ограничения LLM-помощников на файлах знаний: Корпоративный веб-интерфейс LLM с загрузкой файлов хорошо подходит только для быстрых экспериментов: каждый пользователь должен вручную прикладывать файл, база быстро устаревает, а размер ограничен. Формат ответов можно контролировать только через промпт, что усложняет стандартизацию и интеграцию в процессы. Для продуктивных сценариев нужен отдельный слой управления знаниями, а не загрузка статичных файлов.
    [AI-инструменты поддержки]
Для получения полного доступа оформите подписку PubMag PRO.
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Инсайты автоматически генерируются с помощью искусственного интеллекта на основе текста статьи.
← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!