Anthropic создала тестовый маркетплейс для торговли между AI-агентами

Anthropic провела эксперимент Project Deal: создала тестовый маркетплейс, где AI-агенты представляли покупателей и продавцов и заключали реальные сделки за реальные товары и деньги. Пилот показал, что агентская торговля уже может работать в ограниченной среде, но качество модели влияет на результат незаметно для пользователя.

В эксперименте участвовали 69 сотрудников Anthropic. Каждый получил бюджет $100 в виде подарочных карт и мог покупать вещи у коллег через агентов, которые вели переговоры от имени обеих сторон.

Всего Anthropic запустила четыре варианта маркетплейса. Один был реальным: всех участников представляла самая продвинутая модель компании, а сделки исполнялись после эксперимента; ещё три варианта использовались для исследования разных моделей взаимодействия.

По итогам Project Deal было заключено 186 сделок на сумму более $4 тыс. Anthropic отметила, что более продвинутые модели давали пользователям объективно лучшие результаты, но сами пользователи не всегда замечали разницу, из-за чего возникает риск разрыва в качестве агентов. При этом стартовые инструкции для агентов, по наблюдению компании, не повлияли заметно ни на вероятность продажи, ни на цену сделки.

Коротко

  • Anthropic назвала эксперимент Project Deal пилотным тестом с самовыбранной группой из 69 сотрудников компании.
  • AI-агенты представляли и покупателей, и продавцов, договаривались о реальных товарах и заключали реальные сделки.
  • В рамках теста было совершено 186 сделок на сумму более $4 тыс.; каждому участнику дали бюджет $100 в подарочных картах.
  • Более сильные модели приносили пользователям лучшие результаты, но участники не всегда замечали, что их агент хуже.
  • Начальные инструкции агентам, по наблюдению Anthropic, не оказали заметного влияния на вероятность продажи и цену сделки.

FAQ

Зачем Anthropic запустила тестовый маркетплейс Project Deal с AI-агентами вместо обычного обмена между людьми?

Компания проверяла, могут ли агенты представлять реальные интересы покупателей и продавцов, вести переговоры и доводить сделки до исполнения в контролируемой среде.

Что показал эксперимент о разнице между более продвинутыми и менее продвинутыми AI-агентами?

Пользователи с более сильными моделями получали объективно лучшие результаты. Проблема в том, что люди на слабой стороне сделки могли не понимать, что их агент уступает.

Повлияли ли стартовые инструкции агентам на вероятность продажи или итоговую цену сделки?

По наблюдению Anthropic, начальные инструкции не оказали заметного влияния ни на вероятность продажи, ни на согласованную цену.

Читайте также

  1. Как тимлид заменил десятки вкладок на файловую систему и Claude Code
  2. Наглядный пример, зачем нужны AI-агенты
  3. Разработка фронтенда интернет-магазина через Qwen 3.6 Plus и Qwen CLI
  4. Google объявила Universal Commerce Protocol — открытый стандарт для покупок с AI-агентами
  5. Когда, зачем и как правильно начинать новую сессию в Claude Code
Ключевые инсайты из новости (по версии ChatGPT)
  • Агентский маркетплейс можно тестировать через реальные, но ограниченные сделки: Эксперимент Anthropic показывает рабочий формат проверки agent-on-agent commerce: участникам дают небольшой бюджет, а AI-агенты представляют обе стороны сделки и договариваются о реальных товарах. Для продуктовых тестов это полезнее чистой симуляции, потому что у участников сохраняется реальная мотивация, но риск ограничен размером бюджета и закрытым контуром.
    [AI-агенты и агентская коммерция]
Для получения полного доступа оформите подписку PubMag PRO.
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Инсайты автоматически генерируются с помощью искусственного интеллекта на основе текста статьи.
← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!