Критики высмеивают Microsoft после предупреждения, что функция ИИ может заражать устройства и воровать данные
Microsoft столкнулась с резкой критикой после того, как сама предупредила: экспериментальный ИИ-агент
Copilot Actions в Windows потенциально может заражать устройства и выкрадывать чувствительные данные. Новый инструмент позиционируется как «агентская» надстройка, способная автоматически выполнять повседневные задачи — от организации файлов и планирования встреч до отправки писем, фактически получая доступ к ключевым функциям системы и пользовательским данным.
На фоне фанфар Microsoft отдельно рекомендует включать Copilot Actions только тем, кто осознаёт описанные риски. Компания признаёт, что агент базируется на LLM с типичными уязвимостями: галлюцинациями (ошибочные и нелогичные ответы, которым нельзя доверять без проверки) и prompt injection — когда вредоносные инструкции встраиваются в сайты, резюме или письма и воспринимаются моделью как легитимные команды пользователя.
- Интеграция ИИ-агента на уровне ОС усиливает последствия prompt injection: атака может привести не только к странному ответу ассистента, но и к реальным действиям с файлами и данными.
- Ситуация поднимает более общий вопрос: почему крупные технологические компании агрессивно выкатывают агентские функции до того, как их поведение и риски будут полноценно поняты и контролируемы.
Читайте также
Microsoft превращает Windows в «агентную ОС», начиная с панели задач
Обновлённый Sonnet от Anthropic лучше использует компьютер — и временами проявляет экзистенциальную тревогу
Заглянуть под капот ИИ-агентов: новый инструмент раскрывает «магию» Claude Code
Как OpenAI похоронила традиционный BI — и что пришло ему на смену
Агент ChatGPT от OpenAI прошёл проверку «Я не робот»
- Риски AI-агентов на уровне операционной системы: Интеграция LLM-агентов прямо в ОС и системные функции (файлы, почта, календарь) превращает уязвимости моделей в прямые риски для инфраструктуры: ошибка или атака агента может привести к реальным действиям с данными, а не только к странному ответу. Для внутренних продуктов и рабочих окружений любые системные AI-агенты должны рассматриваться как высоко-привилегированные приложения с отдельной моделью угроз, ограниченными правами и обязательным логированием действий.
[security]
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться