Глава Safe: ИИ — помощник, а не замена человеку
CEO Safe Software Дон Мюррей в интервью
The Register называет ИИ «незаменимым ассистентом», но подчёркивает: он не должен становиться «авторитетом» и финальным арбитром. По его словам, ключевой ресурс для ИИ — данные («never-ending thirst for data»), а для бизнесов риск смещения фокуса с продуктивности на сокращение штата остаётся реальным.
Главная практическая граница — требования к точности в критичных отраслях. Мюррей приводит кейс крупного инженерного проекта в
Великобритании, где вендор оценил точность ИИ в 80–90%, тогда как допустимый уровень для инженерии ближе к 99,999%. Отсюда вывод: в agentic-системах неизбежен подход human-in-the-loop — ИИ генерирует варианты и расчёты, но утверждение («sign-off») остаётся за человеком с полномочиями.
- Роль ИИ: ускорение поиска решений (варианты дизайна, выбор библиотек), повышение доступности интерфейсов, поддержка принятия решений (например, подсказки врачу), но без права последнего слова.
- Оргриски: компании, которые перестают нанимать «джунов» из-за ИИ, рискуют остаться без экспертизы через 10–30 лет, когда текущие специалисты уйдут, потому что опыт «нарабатывается временем».
- Практика Safe: Мюррей заявляет, что компания продолжает нанимать и junior, и senior, используя ИИ как инструмент обучения и ускорения проверки/тестирования, где старшие быстрее отделяют корректное от ошибочного.
Итоговый тезис: даже если вокруг ИИ есть «пузырь», технология останется надолго — как интернет после дотком-кризиса — но в промышленной реальности её придётся строить вокруг контроля качества и ответственности человека.
Читайте также
Обновлённый Sonnet от Anthropic лучше использует компьютер — и временами проявляет экзистенциальную тревогу
Заглянуть под капот ИИ-агентов: новый инструмент раскрывает «магию» Claude Code
Как OpenAI похоронила традиционный BI — и что пришло ему на смену
Вечный ревьювер: как ИИ меняет работу разработчиков
Протокольные войны agentic-commerce приходят в e-commerce; Perplexity говорит, что реклама подрывает доверие к AI
- Human-in-the-loop как обязательный паттерн для agentic AI в критичных доменах: В инженерных и инфраструктурных сценариях «хорошая» точность уровня 80–90% может быть неприемлемой: там требуются показатели порядка 99,999% и выше, поэтому агентные системы нужно проектировать с обязательной стадией человеческого утверждения (sign-off). Практический вывод для внедрений: отделять генерацию/подбор вариантов (ИИ) от ответственности и допуска к эксплуатации (сертифицированный специалист), фиксируя роли и контрольные точки в процессе.
[Регламенты внедрения ИИ]
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться