Как ИИ меняет работу системного аналитика: большой обзор на возможности моделей, советы для новичков и немного прогнозов

Материал разбирает, как ИИ помогает системным аналитикам ускорять рутинную работу, хотя формально набор обязанностей почти не меняется. Главный вывод: выигрывает тот, кто выстраивает связку «задача → ИИ → проверка» и контролирует риски.

  • В отчёте OpenAI: использование ChatGPT в корпоративной среде за год выросло в 8 раз; средний объём запросов на человека — на 30%.
  • Оценка из интервью: ИИ способен экономить около 20–30% рабочего времени на типовых задачах.
  • Пример нагрузки: в одной команде на 8 разработчиков приходится 2 аналитика, поэтому типовые задачи делегируют ИИ.
  • В одном из кейсов внутри компании делают LLM для формализации типовых задач; она не заменит ТЗ на 300 страниц, но может закрывать задачи на 1–2 часа.
  • По данным Tech.co: 85% бизнесов используют ИИ-инструменты; 14% владельцев компаний признали, что ИИ снизил необходимость в отдельных ролях.
  • Согласно Forrester, 55% работодателей, уволивших людей из-за ИИ, теперь сожалеют; Tech.co также отмечает, что 78% компаний после таких сокращений планируют снова нанимать.

Почему это важно: В интервью подчёркивается, что рынок требует быстрее выпускать релизы при неизменном или меньшем размере команд, поэтому внимание смещается на рутинные артефакты и спецификации. При этом ИИ описывается как ускоритель, а не «полноценный боец»: без человека, который задаёт контекст и проверяет результат, растут ошибки и потери качества. Отдельно выделяются риски утечек и неверных допущений, которые особенно опасны в требованиях и архитектурных описаниях.

Как использовать: Разделяйте задачи на «смысл и контекст» и «оформление артефактов»: делегируйте второе, но фиксируйте правила ревью (границы ответственности, источники истины, точки отказа). Для диаграмм используйте docs-as-code: просите модель писать PlantUML/Mermaid и работайте итеративно по схеме текст → структура → код. Для OpenAPI и SQL давайте модели схему данных, ограничения и ожидаемый результат, а затем проверяйте логику и крайние случаи. Перед отправкой данных в модель оценивайте безопасность: по возможности работайте во внутреннем контуре, обезличивайте сущности и не включайте в запросы ключи и бизнес-правила.

Коротко

  • Полезно разделить работу на «контекст и решения» и «создание артефактов»: ИИ ускоряет второе, но качество держится только на обязательном ревью.
  • Для диаграмм в статье советуют docs-as-code: просить PlantUML/Mermaid и хранить рядом с кодом, чтобы удобно версионировать и проверять изменения.
  • Если генерируете SQL или OpenAPI, сначала дайте модели схему, цель и ограничения. Так меньше риск получить формально красивый, но неверный результат.
  • Подключая бота/агента к Jira, заранее определите контур контроля: кто принимает результат, как фиксируются ошибки и где заканчивается ответственность инструмента.
  • При работе с чувствительными данными используйте обезличивание и не вставляйте в промпты ключи и бизнес-правила; в тексте рекомендуют по возможности внутренний контур.

FAQ

Зачем это важно: почему про ИИ говорят как про фактор, который меняет работу системного аналитика, если в требованиях вакансий это пока часто не прописано?

В материале отмечается, что задачи остаются прежними, но изменился контекст: бизнес ждёт более быстрых релизов при ограниченных ресурсах, поэтому рутину пытаются переложить на ИИ. Ценность смещается в постановку, проверку и безопасность.

Какие задачи, по интервью, уже реально делегируют ИИ, а в каких случаях он пока «не дотягивает» и без человека качество и смысл не удержать?

ИИ описан как подходящий для рутины: диаграмм, спецификаций, документации, SQL и разборов кода, если есть чёткие правила. Незаменим человек там, где нужен контекст: перевод потребностей бизнеса, проектирование на уровне бизнес-задач и нетипичные решения.

Как в статье предлагают получать BPMN/sequence и другие диаграммы, учитывая, что модели плохо генерируют сложные изображения с текстом и легко «рисуют бессмыслицу»?

Подход — docs-as-code: сначала текстовое описание процесса, затем код диаграммы на PlantUML или Mermaid и только потом отрисовка. Упоминается, что черновик можно получить за 15–20 минут в несколько итераций.

Какие вопросы и приёмы из текста помогают быстрее замечать галлюцинации модели в требованиях, диаграммах и архитектурных описаниях, а не принимать «правдоподобный» ответ на веру?

Среди приёмов — попросить объяснить логику и допущения, спросить про случаи, где решение сломается, и попросить модель выступить критиком результата. Для диаграмм отдельно предлагаются вопросы про источник истины и ответственность.

Читайте также

  1. Как я локально тестировал новый Qwen 3.6 и Gemma 4
  2. Как Meta* убила Llama, чтобы спасти свой ИИ-бизнес
  3. От localhost до сервера: деплой Telegram-бота за 8 минут
  4. App Store снова растёт, и причиной может быть AI
  5. Hybrid RAG для бизнеса: умный поиск по документам без облака и утечки данных
Ключевые инсайты из новости (по версии ChatGPT)
  • Контур работы с ИИ: «задача → ИИ → проверка → интеграция»: Практичный стандарт использования LLM в аналитике — не «делегировать всё», а выстроить управляемый контур: постановка задачи, генерация, обязательная проверка человеком и только затем интеграция результата в артефакты/код/документацию. Такой подход снижает риск ошибок и помогает масштабировать выпуск релизов при ограниченных ресурсах команды.
    [AI-процессы]
Для получения полного доступа оформите подписку PubMag PRO.
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Инсайты автоматически генерируются с помощью искусственного интеллекта на основе текста статьи.
← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!