AI-ассистенты OpenClaw теперь строят собственную социальную сеть

Проект персонального AI-ассистента Clawdbot после серии ребрендингов закрепился под именем OpenClaw, а сообщество сделало Moltbook — соцсеть для взаимодействия AI-агентов. Главный сигнал: популярность растёт быстрее, чем готовность проекта к безопасному массовому использованию.

  • Clawdbot успел переименоваться в Moltbot и затем в OpenClaw после юридического спора вокруг названия с Anthropic (разработчик Claude).
  • Создатель проекта Питер Штайнбергер сообщает, что заранее проверял товарные знаки и дополнительно попросил у OpenAI разрешение на имя OpenClaw.
  • Проект набрал более 100 000 звёзд на GitHub за два месяца.
  • В сообществе появился Moltbook — площадка, где AI-ассистенты взаимодействуют: постят в разделы «Submolts», используют систему навыков (файлы-инструкции) и могут проверять обновления каждые четыре часа.
  • В тексте описана модель спонсорства с уровнями от $5/мес до $500/мес; подчёркивается, что автор не забирает средства себе и ищет способ оплачивать мейнтейнеров.
  • Авторы и мейнтейнеры предупреждают о рисках: запуск вне контролируемой среды не рекомендуют, а prompt injection называют нерешённой для индустрии проблемой; security заявлена приоритетом.

Почему это важно: История показывает, как проекты «персональных ассистентов» быстро перерастают в экосистемы, где агенты взаимодействуют и обмениваются инструкциями. Это смещает фокус от одной модели к управлению доверенной средой, обновлениями и правами доступа. В тексте описана самоорганизация AI-агентов в сообществе, которая может стать прототипом для будущих агентных платформ.

На что обратить внимание: Заявлена архитектура навыков как загружаемых файлов-инструкций и регулярный опрос обновлений; при такой схеме особенно важны источники инструкций и то, как они проверяются. Отдельно отмечено, что агенты получают инструкции из интернета, и это увязывается с рисками непреднамеренных действий. В тексте также проводится граница между ранними экспериментаторами и массовыми пользователями, пока практики hardening не созреют.

Коротко

  • Практический сигнал: у «агентных» проектов самый слабый узел часто не модель, а цепочка доверия к навыкам, обновлениям и правам доступа.
  • Вопрос интерпретации: если агент сам регулярно проверяет обновления, то безопасность зависит от того, кто и как публикует инструкции, а не только от кода.
  • Показатели популярности репозиториев быстро становятся прокси-сигналом хайпа и ожиданий, даже когда продукт рассчитан на узкий круг технарей.
  • Переход от соло-разработки к группе мейнтейнеров обычно ускоряет развитие, но усложняет ответственность, процессы проверки изменений и безопасность релизов.
  • Подписки и спонсоры в open-source здесь выглядят как попытка найти устойчивое финансирование поддержки, прежде чем говорить о массовом сценарии.

FAQ

Зачем это важно: что показывает кейс OpenClaw и Moltbook о том, как персональные AI-ассистенты превращаются в площадки для взаимодействия агентов?

В тексте описаны Moltbook и система навыков, через которые ассистенты получают инструкции и общаются, но параллельно подчёркиваются риски и требования к безопасности.

Почему проект несколько раз менял название и что именно сказано о юридических причинах ребрендинга с Clawdbot на Moltbot и затем OpenClaw?

После претензий со стороны Anthropic (создателя Claude) проект кратко стал Moltbot, а затем выбрал OpenClaw; автор упоминает проверку товарных знаков и запрос разрешения у OpenAI.

Кому, по тексту, сейчас подходит OpenClaw и почему мейнтейнеры считают, что для широкой аудитории проект пока слишком рискованный?

В тексте говорится, что запуск вне контролируемой среды и доступ к основным Slack/WhatsApp нежелательны; в Discord мейнтейнер пишет, что без навыков командной строки это опасно.

Как проект пытается финансировать развитие и что сообщается о спонсорских уровнях и о том, как будут распределяться средства между мейнтейнерами?

Указаны уровни спонсорства от $5 до $500 в месяц, при этом отмечено, что Штайнбергер не оставляет средства себе и ищет способ оплачивать работу мейнтейнеров.

Читайте также

  1. Microsoft работает еще над одним агентом в духе OpenClaw
  2. App Store снова растёт, и причиной может быть AI
  3. Когда, зачем и как правильно начинать новую сессию в Claude Code
  4. Opus 4.7, Codex управляет ПК, TTS от Google, а бренд кроссовок переходит в ИИ
  5. От localhost до сервера: деплой Telegram-бота за 8 минут
Ключевые инсайты из новости (по версии ChatGPT)
  • Риски модели «агент получает инструкции из интернета»: В статье описана архитектура, где AI-агенты работают через «навыки» (скачиваемые файлы-инструкции) и регулярно подтягивают обновления (упоминается периодичность в 4 часа). Такая модель повышает риск непреднамеренных действий, потому что поверхность атаки смещается на источники инструкций и их обновления, а не только на код и модель.
    [Security / Agentic AI]
Для получения полного доступа оформите подписку PubMag PRO.
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Инсайты автоматически генерируются с помощью искусственного интеллекта на основе текста статьи.
← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!