AI-ассистенты OpenClaw теперь строят собственную социальную сеть
- Clawdbot успел переименоваться в Moltbot и затем в OpenClaw после юридического спора вокруг названия с Anthropic (разработчик Claude).
- Создатель проекта Питер Штайнбергер сообщает, что заранее проверял товарные знаки и дополнительно попросил у OpenAI разрешение на имя OpenClaw.
- Проект набрал более 100 000 звёзд на GitHub за два месяца.
- В сообществе появился Moltbook — площадка, где AI-ассистенты взаимодействуют: постят в разделы «Submolts», используют систему навыков (файлы-инструкции) и могут проверять обновления каждые четыре часа.
- В тексте описана модель спонсорства с уровнями от $5/мес до $500/мес; подчёркивается, что автор не забирает средства себе и ищет способ оплачивать мейнтейнеров.
- Авторы и мейнтейнеры предупреждают о рисках: запуск вне контролируемой среды не рекомендуют, а prompt injection называют нерешённой для индустрии проблемой; security заявлена приоритетом.
Почему это важно: История показывает, как проекты «персональных ассистентов» быстро перерастают в экосистемы, где агенты взаимодействуют и обмениваются инструкциями. Это смещает фокус от одной модели к управлению доверенной средой, обновлениями и правами доступа. В тексте описана самоорганизация AI-агентов в сообществе, которая может стать прототипом для будущих агентных платформ.
На что обратить внимание: Заявлена архитектура навыков как загружаемых файлов-инструкций и регулярный опрос обновлений; при такой схеме особенно важны источники инструкций и то, как они проверяются. Отдельно отмечено, что агенты получают инструкции из интернета, и это увязывается с рисками непреднамеренных действий. В тексте также проводится граница между ранними экспериментаторами и массовыми пользователями, пока практики hardening не созреют.
Коротко
- Практический сигнал: у «агентных» проектов самый слабый узел часто не модель, а цепочка доверия к навыкам, обновлениям и правам доступа.
- Вопрос интерпретации: если агент сам регулярно проверяет обновления, то безопасность зависит от того, кто и как публикует инструкции, а не только от кода.
- Показатели популярности репозиториев быстро становятся прокси-сигналом хайпа и ожиданий, даже когда продукт рассчитан на узкий круг технарей.
- Переход от соло-разработки к группе мейнтейнеров обычно ускоряет развитие, но усложняет ответственность, процессы проверки изменений и безопасность релизов.
- Подписки и спонсоры в open-source здесь выглядят как попытка найти устойчивое финансирование поддержки, прежде чем говорить о массовом сценарии.
FAQ
Зачем это важно: что показывает кейс OpenClaw и Moltbook о том, как персональные AI-ассистенты превращаются в площадки для взаимодействия агентов?
В тексте описаны Moltbook и система навыков, через которые ассистенты получают инструкции и общаются, но параллельно подчёркиваются риски и требования к безопасности.
Почему проект несколько раз менял название и что именно сказано о юридических причинах ребрендинга с Clawdbot на Moltbot и затем OpenClaw?
После претензий со стороны Anthropic (создателя Claude) проект кратко стал Moltbot, а затем выбрал OpenClaw; автор упоминает проверку товарных знаков и запрос разрешения у OpenAI.
Кому, по тексту, сейчас подходит OpenClaw и почему мейнтейнеры считают, что для широкой аудитории проект пока слишком рискованный?
В тексте говорится, что запуск вне контролируемой среды и доступ к основным Slack/WhatsApp нежелательны; в Discord мейнтейнер пишет, что без навыков командной строки это опасно.
Как проект пытается финансировать развитие и что сообщается о спонсорских уровнях и о том, как будут распределяться средства между мейнтейнерами?
Указаны уровни спонсорства от $5 до $500 в месяц, при этом отмечено, что Штайнбергер не оставляет средства себе и ищет способ оплачивать работу мейнтейнеров.
Читайте также
Microsoft работает еще над одним агентом в духе OpenClaw
App Store снова растёт, и причиной может быть AI
Когда, зачем и как правильно начинать новую сессию в Claude Code
Opus 4.7, Codex управляет ПК, TTS от Google, а бренд кроссовок переходит в ИИ
От localhost до сервера: деплой Telegram-бота за 8 минут
- Риски модели «агент получает инструкции из интернета»: В статье описана архитектура, где AI-агенты работают через «навыки» (скачиваемые файлы-инструкции) и регулярно подтягивают обновления (упоминается периодичность в 4 часа). Такая модель повышает риск непреднамеренных действий, потому что поверхность атаки смещается на источники инструкций и их обновления, а не только на код и модель.
[Security / Agentic AI]
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Проект персонального AI-ассистента Clawdbot после серии ребрендингов закрепился под именем OpenClaw, а сообщество сделало Moltbook — соцсеть для взаимодействия AI-агентов. Главный сигнал: популярность растёт быстрее, чем готовность проекта к безопасному массовому использованию.