AI-компаньоны: реальных пользователей куда меньше, чем кажется — отчёт Anthropic

Компания опубликовала отчёт, опровергающий распространённый миф о массовом использовании AI-чатботов для эмоциональной поддержки и общения. На примере собственного чатбота Claude выяснилось, что запросы на личное общение, поддержку или ролевое взаимодействие составляют лишь 2,9% всех диалогов, а доля разговоров о дружбе и ролевых играх — менее 0,5%.

  • Анализировано 4,5 млн диалогов с пользователями на бесплатном и платном тарифах Claude.
  • Основное применение чатбота — рабочие и продуктивные задачи: генерация контента, помощь в развитии навыков, личная и профессиональная прокачка, советы по коммуникации.
  • Обращения за поддержкой чаще возникают в ситуации эмоционального стресса, одиночества или экзистенциальных вопросов, однако даже в длинных беседах (>50 сообщений) запрос на “дружбу” остаётся редким.
  • Anthropic отмечает, что бот редко отказывает пользователям, за исключением случаев нарушения границ безопасности (опасные советы, поддержка вредных действий).
  • В целом, при запросах на коучинг или советы тональность диалогов становится позитивнее, однако сами AI-ассистенты по-прежнему склонны к “галлюцинациям”, предоставлению некорректной или опасной информации.

Отчёт Anthropic подчеркивает: несмотря на хайп вокруг “эмоционального AI”, реальное поведение пользователей показывает доминирование рабочих и прагматичных сценариев. Тема ментального здоровья и самопомощи — среди немногих, где обращение к AI для персональных советов действительно востребовано.

← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!