ИИ-агенты как новая киберугроза: как бизнес теряет деньги и данные на автоматических атаках

С развитием ИИ-ассистентов и чат-ботов бизнес столкнулся с новым классом киберугроз — атаками на корпоративные AI-агенты, основанные на архитектуре RAG (Retrieval-Augmented Generation). Эти угрозы включают в себя экономическое истощение инфраструктуры (бот-атаки, массовые фейковые запросы и автоматическая регистрация пользователей), prompt injection (вытягивание приватных данных через манипулирование запросами), OSINT-атаки (сбор инсайтов о бизнесе через безобидные вопросы), а также data poisoning (целенаправленное "отравление" обучающей выборки для ухудшения качества работы модели).

Ключевые цифры: вредоносный запрос к (GPT-4-turbo) стоит около $0,018, к YandexGPT — $0,013; 1000 фейковых запросов могут обойтись бизнесу в 1000–1500 руб., а при нагрузке 1 запрос в секунду — до 30–50 тыс. руб. за ночь. Особенно уязвимы малые и средние компании, так как автоматизированные атаки могут привести к необоснованному росту расходов на токены и подписки, а также автоматическому переходу на более дорогие тарифы.

Меры защиты: аномалийный мониторинг активности, автоматическое ограничение скорости (rate limiting), введение капчи, изоляция и классификация данных, аудит обучающих датасетов, ручная эскалация подозрительных диалогов, запрет на бесплатные/тестовые функции для открытых агентов. Для снижения риска утечек персональных данных — изолировать внутренние базы, ограничивать ассистентов только публичной информацией, не допускать смешивания источников.

Рекомендации включают полный аудит данных, логирование активности, введение внутренних метрик эффективности и ограничений на поведение ботов и пользователей, а также сценарии немедленной эскалации на человека в случае подозрительных ситуаций.

← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!