ИИ и RAG: помощник по техническим вопросам для систем управления освещением

Внутри платформы SUNRiSE автор собрал локальный RAG-помощник для ответов на технические вопросы по системам управления освещением. В процессе выяснилось, что качество ответов упирается в структуру и согласованность документации.

  • Масштаб базы: упоминается около 50 000 онлайн-устройств и накопленные знания по жизненному циклу железа и платформе.
  • Проекты: описано примерно 1 500 цифровых проектов систем управления, около 300 из них реализованы и сопровождаются.
  • Стек и локальный запуск: RAM увеличена до 32 ГБ, GPU 6 ГБ; используются Quadrant (векторная БД), эмбеддер FRIDA, LLM qwen/qwen3-8b-6K, LangChain и Docker; Claude применён для разметки документов.
  • Подготовка знаний: документы режутся на смысловые блоки 400–450 слов и на чанки по 300 символов с перекрытием; в LLM отправляются смысловые блоки, а не мелкие чанки.
  • Пилот и производительность: на первом этапе — порядка 50 документов и несколько тысяч векторов; ответ локальной модели занимает 20–40 секунд.
  • Результат за 6 месяцев: документация дополнялась и приводилась в порядок, а в цифровую платформу добавлены интерфейсы поиска/чата и интеграции через REST API, n8n и Telegram-бота.

Почему это важно: кейс показывает, как RAG превращается из «поиска по PDF» в инструмент управления знанием и техдолгом: несостыковки между документами начинают проявляться в выдаче рядом. При этом автор подчёркивает, что ключевой ресурс — нормализация реальных вопросов пользователей, а не только векторизация. В такой логике документация переписывается под то, чтобы отвечать на вопросы, а не просто «быть написанной».

На что обратить внимание: в статье подчёркнуто, что качество ответов ограничено принципом GIGO: без доработки исходных текстов модель будет находить противоречивые или неполные фрагменты. Видна зависимость UX от локального железа: при времени ответа в десятки секунд выбран одноходовый сценарий, а не длинные цепочки обращений. Отдельный слой работы связан с рисунками и интерфейсами: их привязка к тексту требует аккуратной подготовки и местами ручного сопоставления.

Коротко

  • Кейс показывает прикладной сценарий RAG в инженерном продукте: ответы на техвопросы меньше зависят от «памяти экспертов» и уходят в базу знаний.
  • Если выдача начинает путаться из-за разных версий документов, это обычно означает конфликт источников: RAG подсвечивает места, где требуется согласование.
  • Вопросы пользователей становятся драйвером улучшений: по ним проще находить пробелы, чем пытаться заранее угадать, какие инструкции важнее для базы.
  • Отдельное внимание к схемам и интерфейсам объяснимо: в техподдержке часто важна визуальная часть, поэтому механика вывода рисунков становится критичной.
  • Разделение на предобработку и локальные ответы помогает контролировать затраты: дорогая модель участвует в разметке, а ответы строятся на своей базе.

FAQ

Зачем это важно для продуктовой компании, где технические нюансы, инструкции и лайфхаки накоплены годами и живут в разрозненных документах?

В статье показано, что RAG делает пробелы и несостыковки видимыми в процессе запросов и помогает быстрее доводить документацию до ответа на вопрос.

Как в проекте организована подготовка документов, чтобы модель отвечала по смыслу разделов, а не по случайным коротким кускам текста?

Документы разбиваются на смысловые блоки 400–450 слов, а поиск ведётся по чанкам; в LLM отправляются именно смысловые блоки как payload.

Почему автор уделяет столько внимания рисункам и интерфейсам, а не только тексту, когда речь идёт о поддержке систем управления освещением?

По описанию, пользователи часто запрашивают схемы подключения и элементы интерфейса, поэтому изображения выделяются и привязываются к соответствующим блокам.

Почему на первом этапе выбран одноходовый запрос к локальной LLM вместо агентного сценария с несколькими шагами и переформулировками?

Автор пишет, что на 6 ГБ GPU модель отвечает 20–40 секунд, и длинная цепочка обращений утомляла бы пользователя; агентный режим вынесен на перспективу через n8n.

Читайте также

  1. LLM-агент для поиска свободных доменов: автоматизация подбора
  2. Как тимлид заменил десятки вкладок на файловую систему и Claude Code
  3. «ИИ, найди факты, а я подумаю»: почему гибридный подход не работает для форсайта
  4. Как я локально тестировал новый Qwen 3.6 и Gemma 4
  5. Как научить LLM исправлять код без лишних изменений
Ключевые инсайты из новости (по версии ChatGPT)
  • RAG-пайплайн для PDF с разметкой на смысловые блоки и отдельным слоем изображений: Практичный способ подготовить техдокументацию для RAG: сначала разметить PDF на смысловые блоки (400–450 слов) и извлечь изображения с описаниями, затем уже делать мелкие чанки для векторного поиска. В выдачу LLM отправляются именно смысловые блоки как payload, а не сами чанки, что помогает сохранить связность ответа и не терять контекст.
    [RAG / Подготовка документации]
Для получения полного доступа оформите подписку PubMag PRO.
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Инсайты автоматически генерируются с помощью искусственного интеллекта на основе текста статьи.
← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!