AI-ассистенты OpenClaw теперь строят собственную социальную сеть

Проект персонального AI-ассистента Clawdbot после серии ребрендингов закрепился под именем OpenClaw, а сообщество сделало Moltbook — соцсеть для взаимодействия AI-агентов. Главный сигнал: популярность растёт быстрее, чем готовность проекта к безопасному массовому использованию.

  • Clawdbot успел переименоваться в Moltbot и затем в OpenClaw после юридического спора вокруг названия с (разработчик Claude).
  • Создатель проекта Питер Штайнбергер сообщает, что заранее проверял товарные знаки и дополнительно попросил у разрешение на имя OpenClaw.
  • Проект набрал более 100 000 звёзд на GitHub за два месяца.
  • В сообществе появился Moltbook — площадка, где AI-ассистенты взаимодействуют: постят в разделы «Submolts», используют систему навыков (файлы-инструкции) и могут проверять обновления каждые четыре часа.
  • В тексте описана модель спонсорства с уровнями от $5/мес до $500/мес; подчёркивается, что автор не забирает средства себе и ищет способ оплачивать мейнтейнеров.
  • Авторы и мейнтейнеры предупреждают о рисках: запуск вне контролируемой среды не рекомендуют, а prompt injection называют нерешённой для индустрии проблемой; security заявлена приоритетом.

Почему это важно: История показывает, как проекты «персональных ассистентов» быстро перерастают в экосистемы, где агенты взаимодействуют и обмениваются инструкциями. Это смещает фокус от одной модели к управлению доверенной средой, обновлениями и правами доступа. В тексте описана самоорганизация AI-агентов в сообществе, которая может стать прототипом для будущих агентных платформ.

На что обратить внимание: Заявлена архитектура навыков как загружаемых файлов-инструкций и регулярный опрос обновлений; при такой схеме особенно важны источники инструкций и то, как они проверяются. Отдельно отмечено, что агенты получают инструкции из интернета, и это увязывается с рисками непреднамеренных действий. В тексте также проводится граница между ранними экспериментаторами и массовыми пользователями, пока практики hardening не созреют.

Читайте также

  1. OpenClaw: всё главное о набирающем популярность AI-агенте
  2. Как я пытался сжимать смыслы вместо байтов
  3. ИИ-темплейты для Obsidian Templater для развития знаний
  4. OpenAI готовит код ChatGPT для показа рекламы?
  5. ИИ-наставник для онбординга: как собрать ИИ-агента для адаптации новых сотрудников в компании
Ключевые инсайты из новости (по версии ChatGPT)
  • Риски модели «агент получает инструкции из интернета»: В статье описана архитектура, где AI-агенты работают через «навыки» (скачиваемые файлы-инструкции) и регулярно подтягивают обновления (упоминается периодичность в 4 часа). Такая модель повышает риск непреднамеренных действий, потому что поверхность атаки смещается на источники инструкций и их обновления, а не только на код и модель.
    [Security / Agentic AI]
Для получения полного доступа оформите подписку PubMag PRO.
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Инсайты автоматически генерируются с помощью искусственного интеллекта на основе текста статьи.
← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!