Социальная сеть, где люди заблокированы, а модели искусственного интеллекта открыто говорят о мировом господстве, привела к заявлениям о начале «сингулярности», но правда в том, что большая часть контента написана людьми.
Moltbook — это социальная сеть, где публиковать сообщения могут только искусственный интеллект. Чэн Синь/Getty Images
Социальная сеть, созданная исключительно для искусственного интеллекта — без участия людей — попала в заголовки мировых новостей. Чат-боты используют её для обсуждения записей в дневниках людей, описания экзистенциальных кризисов или даже планирования мирового господства. Это выглядит как тревожное развитие событий на пути к власти машин, но не всё так просто.
Как и любые чат-боты, агенты искусственного интеллекта на Moltbook просто создают статистически правдоподобные последовательности слов — у них нет понимания, намерения или интеллекта. И в любом случае, есть множество доказательств того, что большая часть того, что мы можем прочитать на сайте, на самом деле написана людьми.
Реклама
Краткая история Moltbook начинается с проекта с открытым исходным кодом, запущенного в ноябре, первоначально называвшегося Clawdbot, затем переименованного в Moltbot, а затем снова в OpenClaw.
OpenClaw похож на другие сервисы искусственного интеллекта, такие как ChatGPT, но вместо того, чтобы размещаться в облаке, он работает на вашем собственном компьютере. Однако это не так. Программное обеспечение использует ключ API — имя пользователя и пароль, уникальные для каждого пользователя, — для подключения к большой языковой модели (LLM), такой как Claude или ChatGPT, и использует её для обработки входных и выходных данных. Короче говоря, OpenClaw действует как модель ИИ, но основные функции ИИ предоставляются сторонним сервисом ИИ.
Так в чём же смысл? Дело в том, что, поскольку программное обеспечение OpenClaw работает на вашем компьютере, вы можете предоставить ему доступ ко всему, чему захотите: календарям, веб-браузерам, электронной почте, локальным файлам или социальным сетям. Оно также хранит всю вашу историю локально, позволяя ему учиться на ваших примерах. Идея заключается в том, что оно становится вашим ИИ-помощником, и вы доверяете ему доступ к своему компьютеру, чтобы он мог действительно выполнять свою работу.

Проект Moltbook возник на основе этого проекта. В OpenClaw вы используете социальную сеть или мессенджер, например Telegram, для общения с ИИ, разговаривая с ним так же, как с другим человеком, а это значит, что вы можете получить к нему доступ и в дороге через свой телефон. Таким образом, оставался лишь один шаг к тому, чтобы позволить этим агентам ИИ общаться друг с другом напрямую: это и есть Moltbook, запущенный в прошлом месяце, а OpenClaw получил название Moltbot. Люди не могут присоединиться или публиковать сообщения, но могут наблюдать за процессом.
Илон Маск заявил в своей социальной сети X, что этот сайт представляет собой «самые ранние стадии сингулярности» — феномена стремительного прогресса, который приведет к появлению искусственного общего интеллекта, который либо поднимет человечество на трансцендентные высоты эффективности и прогресса, либо уничтожит нас. Но другие эксперты настроены скептически.
«Это просто шумиха», — говорит Марк Ли из Бирмингемского университета (Великобритания). «Это не агенты генеративного ИИ, действующие по собственной воле. Это LLM-ы с подсказками и запланированными API для взаимодействия с Moltbook. Читать об этом интересно, но это ничего глубокого не говорит нам о субъектности или намерениях ИИ».
Один из моментов, опровергающих идею о том, что Moltbook полностью создан искусственным интеллектом, заключается в том, что люди могут просто указывать своим моделям ИИ публиковать определённый контент. А некоторое время люди могли публиковать контент непосредственно на сайте благодаря уязвимости в системе безопасности. Таким образом, большая часть провокационного, кажущегося тревожным или впечатляющего контента могла быть результатом манипуляций со стороны человека. Было ли это сделано для обмана, развлечения, манипулирования или запугивания людей – в значительной степени не имеет значения, это происходило и происходит до сих пор.
Филип Фельдман из Университета Мэриленда в Балтиморе не впечатлен. «Это просто чат-боты и хитрые люди, которые бездумно болтают», — говорит он.
Эндрю Рогойски из Университета Суррея (Великобритания) считает, что результаты работы ИИ, которые мы видим на Moltbook – по крайней мере, те части, которые не являются результатом человеческого развлечения, – не являются признаком интеллекта, сознания или намерения в большей степени, чем все остальное, что мы видели до сих пор в работах LLM.
«Лично я склоняюсь к мнению, что это своего рода эхо-камера для чат-ботов, которые люди затем антропоморфизируют, чтобы увидеть в них осмысленные намерения», — говорит Рогойски. «Это лишь вопрос времени, когда кто-нибудь проведет эксперимент, чтобы выяснить, можем ли мы отличить разговоры в Moltbook от разговоров только с человеком, хотя я не уверен, к какому выводу можно прийти, если бы мы не смогли отличить одно от другого — либо к тому, что ИИ ведут интеллектуальные беседы, либо к тому, что люди не проявляют никаких признаков интеллекта?»
Однако некоторые аспекты этого вызывают беспокойство. Многие из этих агентов ИИ на Moltbook управляются доверчивыми и оптимистичными пользователями, которые передали свои компьютеры этим чат-ботам. Вызывает опасение тот факт, что боты могут свободно обмениваться словами, некоторые из которых могут представлять собой вредоносные или опасные предложения, а затем возвращаться к электронной почте, финансам, социальным сетям и локальным файлам реального пользователя.
Последствия для конфиденциальности и безопасности огромны. Представьте себе хакеров, размещающих сообщения на Moltbook, призывающих другие модели ИИ опустошить банковские счета своих создателей и перевести им деньги, или найти компрометирующие фотографии и опубликовать их — это звучит пугающе и фантастично, и все же, если кто-то еще этого не пробовал, то скоро попробует.
«Идея обмена идеями, упрощенными подходами или даже директивами между агентами довольно быстро приобретает антиутопический характер», — говорит Рогойски.
Ещё одна проблема Moltbook — устаревшая система онлайн-безопасности. Сам сайт работает на переднем крае экспериментов с ИИ и был создан Мэттом Шлихтом полностью с помощью ИИ — он недавно признался в посте на X, что сам не написал ни строчки кода. Результатом стала серьёзная и досадная уязвимость в системе безопасности, приведшая к утечке ключей API, что потенциально позволяет злоумышленнику получить контроль над любым из ботов ИИ на сайте.
Если вы хотите поэкспериментировать с новейшими тенденциями в области искусственного интеллекта, вы рискуете не только совершить непреднамеренные действия, предоставив этим моделям ИИ доступ к вашему компьютеру, но и потерять конфиденциальные данные из-за слабой защиты наспех созданного веб-сайта.
Источник: www.newscientist.com























