Глава Safe: ИИ — помощник, а не замена человеку
CEO Safe Software Дон Мюррей в интервью The Register называет ИИ «незаменимым ассистентом», но подчёркивает: он не должен становиться «авторитетом» и финальным арбитром. По его словам, ключевой ресурс для ИИ — данные («never-ending thirst for data»), а для бизнесов риск смещения фокуса с продуктивности на сокращение штата остаётся реальным.
Главная практическая граница — требования к точности в критичных отраслях. Мюррей приводит кейс крупного инженерного проекта в Великобритании, где вендор оценил точность ИИ в 80–90%, тогда как допустимый уровень для инженерии ближе к 99,999%. Отсюда вывод: в agentic-системах неизбежен подход human-in-the-loop — ИИ генерирует варианты и расчёты, но утверждение («sign-off») остаётся за человеком с полномочиями.
- Роль ИИ: ускорение поиска решений (варианты дизайна, выбор библиотек), повышение доступности интерфейсов, поддержка принятия решений (например, подсказки врачу), но без права последнего слова.
- Оргриски: компании, которые перестают нанимать «джунов» из-за ИИ, рискуют остаться без экспертизы через 10–30 лет, когда текущие специалисты уйдут, потому что опыт «нарабатывается временем».
- Практика Safe: Мюррей заявляет, что компания продолжает нанимать и junior, и senior, используя ИИ как инструмент обучения и ускорения проверки/тестирования, где старшие быстрее отделяют корректное от ошибочного.
Итоговый тезис: даже если вокруг ИИ есть «пузырь», технология останется надолго — как интернет после дотком-кризиса — но в промышленной реальности её придётся строить вокруг контроля качества и ответственности человека.
Читайте также
Stack Overflow отказался от редизайна после критики со стороны постоянных участников сообщества
AI-агенты обещают 'управлять бизнесом', но кто отвечает, если что-то пойдет не так?
Renga API: автоматизируем автоматизацию с помощью ИИ-агентов
Возвращаем к жизни связку OpenClaw и Claude
Прощайте, менеджеры среднего звена. Здравствуйте, «играющие тренеры» и «орг-лиды».
- Human-in-the-loop как обязательный паттерн для agentic AI в критичных доменах: В инженерных и инфраструктурных сценариях «хорошая» точность уровня 80–90% может быть неприемлемой: там требуются показатели порядка 99,999% и выше, поэтому агентные системы нужно проектировать с обязательной стадией человеческого утверждения (sign-off). Практический вывод для внедрений: отделять генерацию/подбор вариантов (ИИ) от ответственности и допуска к эксплуатации (сертифицированный специалист), фиксируя роли и контрольные точки в процессе.
[Регламенты внедрения ИИ]
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться