Как в рабочий чат добавили ИИ-ассистента и что из этого вышло

В кейсе с Хабра описан ИИ-ассистент в рабочем Telegram-чате небольшой SaaS-компании. Его главная ценность не в модели как таковой, а в доступе к коду, CRM, истории переписки и GitHub-задачам.

Ассистент работает как бот на базе Claude: обработчик сообщений собирает последние реплики и тему ветки, добавляет контекст из кодовой базы, клиентской БД, GitHub Issues и внутренних документов, а затем отправляет запрос в LLM. Файн-тюнинг не использовали: авторы прямо связывают результат с тем, какой контекст передан модели.

В рабочих сценариях бот отвечает менеджерам на продуктовые вопросы по коду, помогает с первичной диагностикой багов, формулирует ответы клиентам и создаёт GitHub issue из переписки. В одном примере он понял обсуждение про сравнение фотографий квартир, нашёл уже существующее хеширование, описал Hamming distance, валидацию на 10 000+ пар и добавил задачу с нужными labels.

За три месяца ассистент отправил около 2500 сообщений, создал примерно 120 задач, закрыл без CEO около 60% вопросов менеджеров и отвечал в среднем за 15–40 секунд. Ограничения тоже заметны: сложные межсистемные баги, бизнес-решения, эмоциональные клиентские ситуации, длинный контекст и галлюцинации требуют контроля; один из safeguards — правило не уверен — уточни.

Коротко

  • ИИ-ассистент встроен в общий Telegram-чат и использует Claude, историю ветки, кодовую базу, CRM, GitHub Issues и документы.
  • Главные сценарии: ответы менеджерам по продукту, первичная диагностика багов, формулировка клиентских ответов и создание GitHub issue.
  • За три месяца бот отправил около 2500 сообщений, создал примерно 120 задач и закрыл без CEO около 60% вопросов менеджеров.
  • Среднее время ответа составило 15–40 секунд, но были 3 критичные ошибки, когда hallucination дошла до клиентского уровня.
  • Авторы считают, что 80% ценности даёт контекст: без доступа к коду, CRM и переписке даже сильная LLM остаётся мало полезной.

FAQ

Зачем небольшой SaaS-компании понадобился ИИ-ассистент прямо в рабочем Telegram-чате?

Команда хотела снять с CEO роль постоянной справки по продукту, клиентам и задачам. Ассистент должен был быстро отвечать менеджерам и превращать обсуждения в рабочие действия.

Почему в этом кейсе авторы считают контекст важнее выбора конкретной LLM-модели?

Бот полезен потому, что видит историю переписки, код, CRM, GitHub Issues и внутренние документы. Без этих источников он отвечал бы общими формулировками, а не по реальному состоянию продукта.

Какие ограничения у такого ассистента остаются даже после нескольких месяцев использования в команде?

Он может ошибаться в сложных межсистемных багax, терять длинный контекст и галлюцинировать. Поэтому бизнес-решения, эмоциональные клиентские ситуации и спорные ответы всё равно требуют человека.

Читайте также

  1. Как в «СВОЙ Тех» сократили подготовку к тестированию на 70% с помощью AI-агентов
  2. Когда, зачем и как правильно начинать новую сессию в Claude Code
  3. Как я локально тестировал новый Qwen 3.6 и Gemma 4
  4. LLM-агент для поиска свободных доменов: автоматизация подбора
  5. Как кодинг-агенты используют инструменты, память и контекст репозитория, чтобы писать код лучше
Ключевые инсайты из новости (по версии ChatGPT)
  • Контекст важнее выбора LLM-модели в рабочих ассистентах: Практическая ценность внутреннего ИИ-ассистента возникает не от самой модели, а от доступа к рабочему контексту: истории чатов, коду, CRM, задачам и внутренним документам. Без этих источников даже сильная LLM будет давать общие ответы, а не помогать с реальными операционными вопросами.
    [AI-ассистенты и контекст]
Для получения полного доступа оформите подписку PubMag PRO.
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Инсайты автоматически генерируются с помощью искусственного интеллекта на основе текста статьи.
← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!