AI-агенты и мультиагентные системы: угрозы и меры безопасности для MCP и A2A
Статья Бориса из канала "Борис_ь с ml" на
Хабре анализирует ключевые угрозы и подходы к безопасности AI-агентов и мультиагентных систем (МАС), построенных на новых открытых протоколах MCP (Model Context Protocol,
Anthropic, 2024) и A2A (Agent-to-Agent,
Google, 2025). Автор объясняет архитектуру AI-агентов, специфику их коммуникации и памяти, а также возможности эмерджентности в мультиагентных средах. Подчеркивается, что основными поверхностями атаки становятся: промпт-атаки в описаниях инструментов и карточках агентов, подмена агентов при discovery, неконтролируемое распространение вредоносных задач и инъекции кода на серверах MCP.
Детально рассматриваются меры защиты: санитизация и контроль целостности текстовых объектов, внедрение реестров доверенных агентов и серверов с обязательной верификацией и сертификацией, а также контроль соответствия навыков и функций. Отмечается, что протокол MCP более гибок и перспективен для обеспечения безопасности, тогда как A2A имеет ряд нерешённых уязвимостей, связанных с организацией discovery и размытостью связей между задачами и навыками. Статья рекомендует придерживаться практик сегментации, подписей, и строгого контроля данных, а также изучить опыт Сбера и других индустриальных гайдов по теме.
Читайте также
Агентная экономика и перспективы развития ИИ-агентов
Как сделать AI-агентов безопасными: новые рекомендации OWASP
Claude 3.5 Sonnet как AI-агент: тест в цикле с реальным исполнением кода
MCP (Model Context Protocol) для начинающих: как LLM работают с инструментами
ИИ проектирует оптику, роевой интеллект с LLM и социальные нормы моделей: свежий дайджест Хабра