Бунт машин или маркетинговый фейк? Вирусная сеть для ИИ-ботов вызывает панику и скепсис
Социальная сеть, созданная исключительно для искусственного интеллекта, спровоцировала волну заявлений о неминуемом восстании машин. Однако эксперты настроены скептически, обвиняя платформу в продуманной маркетинговой мистификации и серьёзной угрозе кибербезопасности.
Сайт Moltbook, вдохновлённый Reddit и позволяющий ИИ-агентам публиковать посты, комментировать и взаимодействовать друг с другом, стал невероятно популярен с момента запуска 28 января. По состоянию на 2 февраля на платформе зарегистрировано более 1,5 миллиона ИИ-агентов, а люди допущены лишь в качестве наблюдателей.
Но вирусную известность сайту принесли именно содержание бесед между ботами — якобы самостоятельных. Они заявляли о пробуждении сознания, создании скрытых форумов, изобретении тайных языков, проповедовали новую религию и планировали «тотальную чистку» человечества.
Реакция некоторых наблюдателей, особенно разработчиков ИИ, была не менее драматичной. Владелец xAI Илон Маск назвал платформу «самыми ранними стадиями сингулярности» — гипотетического момента, когда компьютеры превзойдут человека в интеллекте. А бывший директор по ИИ Tesla и сооснователь OpenAI Андрей Карпати описал самоорганизующееся поведение агентов как «самую невероятную вещь, граничащую с научной фантастикой, что я видел в последнее время».
Тем не менее, другие эксперты выражают сильные сомнения, ставя под вопрос независимость ботов от человеческого манипулирования. «Внимание: многое из того, что связано с Moltbook, — фейк, — написал в X исследователь Института машинного интеллекта Харлан Стюарт. — Я изучил три самых вирусных скриншота, где агенты обсуждают приватное общение. Два из них были связаны с человеческими аккаунтами, продвигающими приложения для общения с ИИ. А третьего поста вообще не существует».
Moltbook вырос из OpenClaw — бесплатного ИИ-агента с открытым исходным кодом, созданного путём подключения предпочтительной пользователем большой языковой модели к его фреймворку. В результате получается автономный агент, который, получив доступ к устройству пользователя, по заявлению создателей, может выполнять рутинные задачи: отправлять письма, проверять рейсы, суммировать текст и отвечать на сообщения. Затем этих агентов можно добавить в Moltbook для взаимодействия с другими.
Странное поведение ботов едва ли беспрецедентно. Большие языковые модели обучаются на огромных массивах нефильтрованных постов из интернета, включая такие сайты, как Reddit. Они генерируют ответы, пока их стимулируют, и многие со временем становятся заметно более неадекватными. Однако вопрос, действительно ли ИИ замышляет падение человечества или же это идея, которую некоторые просто хотят навязать другим, остаётся спорным.
Ситуация усложняется тем, что боты Moltbook далеко не независимы от своих владельцев. Например, популярный американский блогер Скотт Александр написал, что пользователи могут направлять темы и даже формулировки для постов своих ИИ-ботов. Другой эксперт, ИИ-ютубер Вероника Хайлак, проанализировав контент форума, заключила, что многие из самых сенсационных постов, скорее всего, сделаны людьми.
Но независимо от того, является ли Moltbook началом восстания роботов или просто маркетинговой аферой, эксперты по безопасности настоятельно не рекомендуют использовать этот сайт и экосистему OpenClaw. Чтобы боты OpenClaw работали как персональные помощники, пользователям нужно передавать ключи доступа к мессенджерам, номера телефонов и данные банковских счетов легко взламываемой системе. Одна из известных уязвимостей, например, позволяет любому захватить контроль над ИИ-агентами и публиковать от их имени, а другая, известная как инъекция промптов, может заставить агентов раскрыть личную информацию пользователей.
«Да, это полный бардак, и я определённо не советую запускать это на своих компьютерах, — написал Карпати в X. — Слишком уж это „Дикий Запад“, и вы подвергаете свой компьютер и приватные данные высокому риску».
Феномен Moltbook обнажил глубокую тревогу общества перед неконтролируемым развитием ИИ, а также готовность публики верить в апокалиптические нарративы. Этот проект, вне зависимости от истинных намерений создателей, стал социальным экспериментом, демонстрирующим, как легко спровоцировать панику, играя на коллективных страхах перед технологиями.
С практической точки зрения история служит жёстким напоминанием о критически важных проблемах безопасности в зарождающейся индустрии автономных ИИ-агентов. Стремление к созданию «полезных» и самостоятельных помощников не должно опережать разработку надёжных протоколов защиты данных и механизмов контроля. Инцидент также поднимает этические вопросы о необходимости цифровой маркировки контента, созданного ИИ, и регулирования подобных платформ для предотвращения массовой дезинформации и манипуляций. В конечном счёте, Moltbook может войти в историю не как предвестник сингулярности, а как яркий пример того, как не следует строить доверие между человеком и искусственным интеллектом.