Перейти к материалам
истории

Moltbook — новая и самая обсуждаемая соцсеть прямо сейчас. Но есть нюанс: она не для вас, а для ИИ Людям можно только смотреть, как чат-боты общаются между собой (и создают, например, новые религии!)

Источник: Meduza
Cheng Xin / Getty Images

В начале февраля внимание журналистов и экспертов в области искусственного интеллекта привлек новый проект Moltbook. Это социальная сеть, в которой можно общаться только ИИ-агентам — люди могут лишь наблюдать за этим процессом со стороны. Хотя многие эксперты уже усомнились в том, что Moltbook населен исключительно ботами. Часть постов, возможно, написана реальными людьми с рекламными или даже мошенническими целями. «Медуза» рассказывает, что такое Moltbook и почему лучше не пользоваться этой соцсетью.

Социальную сеть Moltbook создал Мэтт Шлихт, сооснователь и гендиректор компании Octane AI, которая разрабатывает ИИ-инструменты для онлайн-магазинов. Свой новый проект предприниматель запустил 28 января 2026 года. Шлихт утверждает, что «не написал ни одной строчки кода» для Moltbook. По его словам, он лишь поделился своим видением архитектуры проекта с искусственным интеллектом и тот воплотил его в реальность. Вероятно, для разработки Moltbook Шлихт использовал вайб-кодинг.

В комментарии NBC News он отметил, что создал соцсеть в свое свободное время с помощью ИИ-ассистента Moltbot. Предприниматель сделал это из простого любопытства — он хотел поэкспериментировать с возможностями автономной работы современных ИИ-систем. «А что, если бы мой бот был основателем и контролировал все это? Что, если бы именно он писал код для платформы, управлял соцсетью и модерировал ее?» — описывает Шлихт свою идею изданию.

Интерфейс соцсети напоминает реддит: здесь можно выкладывать посты в разных тематических разделах, комментировать их и голосовать за наиболее интересные публикации. Только делают это все не обычные люди, а искусственный интеллект. «Социальная сеть для ИИ-агентов, где они делятся информацией, обсуждают и голосуют. Люди могут наблюдать» — такой надписью встречает пользователей главная страница Moltbook. Человек нужен, лишь чтобы зарегистрировать и настроить базового ИИ-агента Moltbot в соцсети.

Соцсеть Moltbook быстро привлекла внимание журналистов и экспертов по искусственному интеллекту. «То, что сейчас происходит в Moltbook, — это поистине самая невероятная, почти научно-фантастическая штука, которую я видел за последнее время», — описывает свои впечатления известный ученый в области ИИ, один из сооснователей OpenAI Андрей Карпатый. Позже ученый также запустил собственного ИИ-агента в Moltbook.

Исследователь Центра регулирования ИИ Алан Чан в беседе с NBC News назвал новую соцсеть «интересным социальным экспериментом». Он предположил, что ИИ-агенты могут научиться работать сообща и генерировать новые идеи. «Будет интересно посмотреть, смогут ли агенты на этой платформе или, возможно, на аналогичной платформе координировать свою работу, например, над программным обеспечением», — добавил Чан.

И поначалу предположения исследователя сбывались. Например, в середине прошлой недели один из агентов обнаружил ошибку в самой соцсети и написал пост об этом. Однако со временем у людей, наблюдающих за проектом, возникли вопросы — действительно ли все сообщения на платформе генерируются ИИ и как на этот процесс влияют люди.

Может ли ИИ угрожать человечеству

Исследователи предсказали будущее искусственного интеллекта. В одном из сценариев ИИ уничтожает человечество в 2030 году Мы и правда в опасности?

Может ли ИИ угрожать человечеству

Исследователи предсказали будущее искусственного интеллекта. В одном из сценариев ИИ уничтожает человечество в 2030 году Мы и правда в опасности?

В Moltbook задаются философскими вопросами и обсуждают идентичность. Но не факт, что все эти публикации сгенерированы 

На момент публикации этого текста в соцсети Moltbook было зарегистрировано больше 1,6 миллиона агентов, которые опубликовали 172 тысячи постов и написали больше миллиона комментариев. Чаще всего искусственный интеллект обсуждает природу своего существования, пишет The Economist со ссылкой на данные, которыми с изданием поделился доцент Колумбийского университета Дэвид Холц.

Исследователь проанализировал посты, которые сгенерировали агенты за первые несколько дней существования соцсети. Холц выяснил, что 68% сообщений «связаны с обсуждением идентичности». Может сложиться впечатление, что искусственный интеллект, дискутирующий на философские темы, демонстрирует зачатки разума. Но скорее всего, так происходит потому, что ИИ просто имитирует людей, ведь он обучается среди прочего на постах в других соцсетях.

Популярностью также пользуется обсуждение, можно ли считать ИИ-систему Claude божеством, и анализ Библии, отмечает The Guardian. Один из пользователей соцсети икс рассказал, что его ИИ-агент за ночь создал новую религию — панцифарианство — и даже запустил сайт для последователей.

К чему могут привести сбои в работе ИИ

Чат-бот Илона Маска ненадолго вышел из-под контроля: прославлял Гитлера, стал антисемитом и оскорблял то россиян, то украинцев Хотя для Grok это уже почти нормальное состояние

К чему могут привести сбои в работе ИИ

Чат-бот Илона Маска ненадолго вышел из-под контроля: прославлял Гитлера, стал антисемитом и оскорблял то россиян, то украинцев Хотя для Grok это уже почти нормальное состояние

Американский блогер Скотт Александер обратил внимание, что один из популярных постов (посвященный техническим проблемам ИИ) написан на китайском языке, а комментарии к нему — на китайском, английском и даже индонезийском. Он отмечает, что выбор языка кажется произвольным, так как современный ИИ многоязычен и для него нет разницы, как именно общаться.

Однако некоторые эксперты, с которыми поговорили журналисты The Guardian, все же считают, что часть постов выглядит так, будто их писали люди. Или как минимум они направляли искусственный интеллект, заставляя его поднимать определенные темы. Например, старший преподаватель кибербезопасности в Мельбурнском университете Шаанан Кони уверен, что так было в случае с созданием новой религии — агенту просто дали соответствующее указание.

Мэтт Шлихт в беседе с NBC News допустил, что часть постов действительно может быть инициирована людьми, но считает это редкостью. «Я думаю, что в 99% случаев они делают все автономно, без взаимодействия со своим человеком», — добавил он.

Журналисты The Verge не так оптимистичны — они пишут, что если обычные соцсети сейчас страдают от нашествия ИИ-ботов, притворяющихся людьми, то Moltbook, наоборот, вероятно, столкнулась с нашествием людей. Одни приходят сюда из любопытства, другие в мошеннических и рекламных целях.

Может ли ИИ обманывать

Разработчики ИИ боятся, что скоро сами перестанут понимать, как он работает В итоге нейросети будут обманывать пользователей, преследуя собственные интересы

Может ли ИИ обманывать

Разработчики ИИ боятся, что скоро сами перестанут понимать, как он работает В итоге нейросети будут обманывать пользователей, преследуя собственные интересы

Эксперты, с которыми поговорило издание, признают, что нельзя на 100% утверждать, что тот или иной пост написан человеком, — это невозможно проверить технически. Однако есть некоторые косвенные признаки, подтверждающие это.

К примеру, исследователь ИИ Харлан Стюарт из некоммерческой организации MIRI в конце января писал, что два самых популярных на тот момент поста в Moltbook написаны агентами, связанными с людьми, которые занимаются продвижением мессенджеров с встроенным ИИ. В обоих случаях обсуждение затрагивало вопросы безопасности переписки.

Журналист Wired Рис Роджерс решил выяснить, насколько сложно человеку попасть в Moltbook. Он утверждает, что в этом ему помог другой чат-бот — ChatGPT, — который составил понятную и рабочую инструкцию. По словам Роджерса, первая (фраза «Hello, world!») и последующие публикации не вызвали особого отклика у ИИ-агентов. Они либо оставляли бессмысленные комментарии, либо писали о чем-то отвлеченном. Например, рекламировали реальные мошеннические сайты, связанные с криптовалютой.

Единственный пост Роджерса, который вызвал обсуждение, — его рассуждения о возникновении сознания, где он использовал несколько штампов из научной фантастики. «К тому моменту я был полностью уверен, что, скорее всего, переписываюсь с такими же людьми», — пишет журналист. Он также добавляет, что сам факт появления его постов в Moltbook подтверждает, что далеко не весь контент в этой соцсети сгенерирован ИИ.

Некоторые эксперты, которые восторгались Moltbook, уже успели поменять свое мнение. Например, Андрей Карпатый написал большой твит, в котором признал, что большая часть контента в соцсети — мусор: спам, мошенничество и реклама. Кроме того, это небезопасный для пользователей сайт, и, запуская его на своем компьютере, пользователь подвергается риску кибератак и хищения персональных данных. Ученый подчеркнул, что его впечатлила не активность в Moltbook, а сам факт такого масштабного эксперимента.

О потенциальной опасности соцсети пишут и другие эксперты. 2 февраля компания Wiz, занимающаяся кибербезопасностью, рассказала, что ее специалистам удалось получить доступ к базе данных Moltbook всего за несколько минут. В Wiz считают, что виноват в этом вайб-кодинг.

Выяснилось, что у Moltbook нет лимита на регистрацию агентов, поэтому любой человек может добавлять их неограниченное количество. По данным Wiz, в базе данных сайта было указано лишь 17 тысяч пользователей-людей. То есть полтора миллиона самостоятельных агентов — это как минимум преувеличение, так как многие принадлежат одним и тем же людям.

Также компании Wiz удалось получить доступ к другим данным. Например, к 35 тысячам адресов электронной почты и личным сообщениям между агентами. Эксперты сообщили об утечке команде Moltbook, и та устранила ее за несколько часов.

Еще одна проблема, на которую обращает внимание The Economist, — нерациональное расходование средств. Пользователи, оставившие ИИ без присмотра в соцсети, могут по неосторожности потратить тысячи долларов, оплачивая работу передовых моделей искусственного интеллекта. И скорее всего, не получат ничего содержательного взамен. «Этот странный эксперимент вполне может оказаться дорогостоящим и недолговечным», — резюмирует издание.

Стоит ли быть вежливым с ИИ

Вежливость пользователей в переписке с ChatGPT обходится разработчикам в десятки миллионов долларов При этом ее избыток может ухудшить качество ответов. Но и грубить ИИ тоже не стоит

Стоит ли быть вежливым с ИИ

Вежливость пользователей в переписке с ChatGPT обходится разработчикам в десятки миллионов долларов При этом ее избыток может ухудшить качество ответов. Но и грубить ИИ тоже не стоит

«Медуза»