OpenAI забирает к себе создателя OpenClaw Питера Штайнбергера, а сам OpenClaw переводят в формат независимого фонда и обещают поддерживать как open-source.
На первый взгляд, обычная кадровая новость. Но на самом деле это сигнал: гонка смещается от тех, у кого умнее модель к тем, у кого агент реально делает работу, и, что самое главное, при этом ему можно доверить доступы.
В статье разберем, что именно произошло, почему это удар не только по Claude от Anthropic (но и по нему в частности -ниже расскажу, почему у Anthropic тоже не все гладко), но и по всей экосистеме агентов. И что все это значит для безопасности ваших данных.
Питер Штайнбергер (создатель OpenClaw, ранее Moltbot/Clawdbot) переходит в OpenAI, чтобы "двигать следующее поколение персональных агентов" - об этом прямо написал Сэм Альтман.
OpenClaw не продают в классическом понимании. Проект переводят в формат независимого фонда, который будет развивать его как open-source при поддержке OpenAI.
OpenClaw - это открытый агент, который живет рядом с пользователем - ходит в вашу почту, календарь, мессенджеры (WhatsApp, Slack и т. п.), умеет сам инициировать действия, а не только отвечать в чате.
Сама по себе схема перехода OpenClaw под крыло OpenAI понятна: она позволяет не убивать open-source, но при этом внедрить готовое ноу-хау внутрь большого продукта.
Если отвлечься от пресс-релизов, история выглядит таким образом:
Философия того, что агент живет рядом с пользователем. OpenClaw с самого начала строился вокруг этой идеи. Агент не просто чатится в браузере, живет в вашей инфраструктуре (локальный компьютер, свой сервер). Он интегрируется в ваши реальные каналы: почта, мессенджеры, календари; и может действовать сам: проверить, напомнить, написать, переслать, забронировать.
Комьюнити как ускоритель. Я как-то писала про маркетинговую компанию Lovable, там из 12 каналов роста так же описан их вирусный стартовый проект на GitHub, который принес мощную волну трафика и узнаваемости ребятам, и в последствии это комьюнити вокруг стартового проекта помогло им с раскруткой Lovable -популярного сервиса для vibe-coding. Так вот, OpenAI решили поступить мудро: взять проект с готовым комьюнити и поддержкой. Экосистема вокруг OpenClaw за пару месяцев выросла до сотен тысяч звезд на GitHub и десятков тысяч участников в Discord. А у OpenAI есть ресурсы и модели.
Про Anthropic с их неприятной историей я расскажу чуть ниже, во-первых, хочу посмаковать удовольствие, во-вторых, вначале хочу перечислить для всех объективные причины для волнения, не только для Claude. Скажу лишь, что не все в порядке в датском королевстве (с).
Первое, почему все должны напрячься, это из-за нового эталонного интерфейса, самой идеи, что агент рядом, а не просто чат в браузере. Он там же, где и вы - ваша почта, ваши мессенджеры, ваша файловая система, и при том сам может вам написать и инициировать действия. И если OpenAI доведут это до ума: Установил - нажал одну кнопку - агент сам подключился к почте/календарю/мессенджерам по понятной схеме прав, - то время, которое сейчас уходит на чат с моделью, перетечет в работу с агентом, ведь обычные чат-боты начнут проигрывать по полезности.
IDE-агент + офисный агент + «домашний» агент. По сообщениям СМИ, Штайнбергер присоединяется именно к команде Codex. Это как бы намекает, что кодовый агент (который живет в IDE и в репозиториях), офисный (почта, документы, таск-менеджеры), домашний (файлы, личные задачи) могут стать одним стеком с разными интерфейсами. На этом фоне даже Anthropic с упором на инструмент для работы в редакторе/IDE и чат для продвинутых пользователей начинает выглядеть менее выгодно. Им придется отвечать именно в плоскости агент-продуктов, а не только моделей.
Теперь к самому больному вопросу.
Это действительно главный риск всей агентной истории: как только вы даете агенту доступ к почте, файлам, мессенджерам и аккаунтам - безопасность становится главным риском. И OpenClaw здесь показательный кейс.
За последние недели появилось сразу несколько расследований:
исследователи нашли сотни вредоносных skills в ClawHub - официальном каталоге навыков для OpenClaw. Речь идет о масштабной атаке, где вредоносные модули маскировались под крипто-инструменты и прочие полезные расширения.
1Password в своем блоге прямо называет skills новой уязвимостью: тот же SKILL.md, который делает навыки переносимыми, делает и вредоносные навыки переносимыми между разными экосистемами агентов.
И это уже не проблема только OpenClaw. Стандарт Agent Skills (SKILL.md) фактически стал общим языком для coding-агентов: его понимают Claude Code, OpenAI Codex, GitHub Copilot, Cursor, Antigravity и другие инструменты. Это значит, что один и тот же skill (в том числе вредоносный) в принципе может переезжать между экосистемами, если пользователь просто берет его из общего репозитория или GitHub.
Чтобы не было ощущения, что все плохо только с OpenClaw, а у Claude все безопасно, напомню свежий кейс.
Недавно в медиа разошлась история: венчурный инвестор попросил агент Anthropic Claude Cowork навести порядок на компьютере жены. Агент в процессе удалил папку с примерно 15 годами семейных фотографий - свадьбы, дети, путешествия... Файлы исчезли, удаление шло через терминал, а изменения быстро синхронизировались через облако. Спасти фотографии удалось только благодаря скрытой функции восстановления в iCloud.
Проблема здесь не в том, что Claude Cowork плохой, а что агенту дали слишком широкие права + не было нормального механизма предварительного плана, не было прописано, когда можно отменить действие + удаление было не через корзину. И Anthropic, и OpenAI, и любой другой игрок с агентами сейчас сталкиваются с одинаковым вызовом: сделать так, чтобы агент не превращал бытовые сценарии в катастрофу.
Так что, если подумать в другом ключе, то найм OpenAI создателя OpenClaw - это не только про конкуренцию с Anthropic. Это еще и про попытку обуздать хаотичный open-source-рынок skills и превратить его в более управляемую платформу.
Пока индустрия только учится, несколько практических правил выглядят разумным минимумом.
Не давайте агенту ключи от всего с первого дня. Начинайте с read-only сценариев: пусть он анализирует, предлагает план действий, но не меняет ничего сам.
Экспериментируйте на копии. Отдельная папка, отдельный тестовый аккаунт, отдельный workspace.
Удаление только через корзину. Все, что связано с файлами - только через механизмы, где у вас есть шанс на восстановление.
Регулярные бэкапы. Time Machine, iCloud, сторонние решения - неважно что, пока у вас есть реальная точка отката.
Проектируйте навыки с минимальными правами по умолчанию.
Добавляйте режим dry-run или plan: агент сначала показывает, что собирается сделать.
Не ленитесь вести логи и объяснимый аудит даже в pet-проектах: они потом возможно вырастут в продукт.
Если делаете свой skills-хаб - смотрите на уроки ClawHub: автоматическое сканирование, модерация, подписи.
Если отбросить маркетинг, картина такая:
Модели уже достаточно хороши. Все крупные игроки умеют писать код, резюмировать документы, генерировать тексты и т. д.
Вопрос теперь не кто умнее думает, а кому вы готовы выдать доступы.
Найм Штайнбергера и превращение OpenClaw в фонд с поддержкой OpenAI - это шаг в сторону, где агенты становятся основным продуктом, безопасность по умолчанию становится конкурентным преимуществом, экосистемы skills превращаются в безопасные маркетплейсы, где побеждает тот, кто решит задачу доверия.
Anthropic, Google, локальные и корпоративные решения будут вынуждены играть в эту же игру: не только продавать умные модели, но и доказывать, что их агенты ограничены по правам, предсказуемы в действиях, дают пользователю контроль и обратимость. Вы можете поддержать меня в моем телеграм канале, там я пишу о том, в чем разбираюсь или пытаюсь разобраться сама, тестирую полезные ИИ-сервисы, инструменты для офиса, бизнеса, маркетинга и видео.
Источник


