Image

Как ИИ стал самой значимой теорией заговора нашего времени

Идея о том, что машины будут такими же умными, как люди, или даже умнее, захватила целую индустрию. Но присмотритесь внимательнее, и вы увидите, что это миф, напоминающий более откровенно нелепые и фантастические идеи.

feb9a0c486b08022d2109b03befa9c01

Стефани Арнетт/MIT Technology Review | Общественное достояние, Adobe Stock, Getty Images

Вы это чувствуете?

Я слышал, что это скоро: два года, пять лет — может быть, в следующем году! И я слышал, что это всё изменит: это вылечит болезни, спасёт планету и откроет эпоху изобилия. Это решит наши самые серьёзные проблемы способами, которые мы пока не можем себе представить. Это переосмыслит, что значит быть человеком.

Погоди-ка, а что, если всё это слишком хорошо, чтобы быть правдой? Потому что я также слышал, что это приведёт к апокалипсису и убьёт нас всех…

В любом случае, независимо от ваших временных рамок, скоро произойдет что-то грандиозное.

Мы могли бы говорить о Втором пришествии. Или о том дне, когда Врата Рая вообразили, что их подберёт НЛО и превратит в просветлённых инопланетян. Или о моменте, когда Дональд Трамп наконец решит устроить бурю, обещанную Q. Но нет. Мы, конечно же, говорим об общем искусственном интеллекте (ИИ) — гипотетической технологии недалёкого будущего, которая (я слышал) сможет делать практически всё, что может человеческий мозг.

Эта история является частью серии статей MIT Technology Review «Новая эра заговоров», в которой рассказывается о том, как нынешний бум теорий заговора меняет науку и технологии.

Для многих ИИОН — это больше, чем просто технология. В таких технологических центрах, как Кремниевая долина, о нём говорят с мистическим настроем. Говорят, что Илья Суцкевер, соучредитель и бывший главный научный сотрудник OpenAI, на совещаниях команды скандировал «Почувствуй ИИОН!». И он чувствует это сильнее, чем кто-либо другой: в 2024 году он покинул OpenAI, чья заявленная миссия заключается в том, чтобы ИИОН приносил пользу всему человечеству, чтобы стать соучредителем Safe Superintelligence, стартапа, посвящённого поиску способов избежать так называемого неконтролируемого ИИОН (или контролировать его, когда он появится). Суперинтеллект — это новый тренд — ИИОН, только лучше! — появившийся, когда разговоры об ИИОН стали обычным делом.

Суцкевер также служит примером противоречивых мотивов, царивших среди многих самопровозглашённых евангелистов ИИ. Он посвятил свою карьеру созданию основ для будущей технологии, которая теперь кажется ему ужасающей. «Это будет монументально, сногсшибательно — будет до и после», — сказал он мне за несколько месяцев до ухода из OpenAI. Когда я спросил его, почему он перенаправил свои усилия на сдерживание этой технологии, он ответил: «Я делаю это в своих собственных интересах. Очевидно, важно, чтобы любой созданный сверхинтеллект не вышел из-под контроля. Само собой».

Он далеко не одинок в своих грандиозных, даже апокалиптических взглядах.

В каждой эпохе есть свои верующие, люди с непоколебимой верой в то, что должно произойти что-то грандиозное — до и после этого им выпадет честь (или будет суждено) пережить это.

Для нас это обещанное пришествие ИИОН. Люди привыкли слышать, что то или иное станет следующим большим прорывом, говорит Шеннон Вэллор, изучающая этику технологий в Эдинбургском университете. «Раньше был век компьютеров, потом был век интернета, а теперь — век искусственного интеллекта», — говорит она. «Нормально, когда тебе что-то представляют и говорят, что это будущее. Разница, конечно, в том, что, в отличие от компьютеров и интернета, ИИОН не существует».

Вот почему ощущать ОИИ — это не то же самое, что стимулировать следующий большой проект. Происходит нечто более странное. Вот что я думаю: ОИИ очень похож на теорию заговора, и, возможно, самую значимую в наше время.

Я пишу об искусственном интеллекте уже более десяти лет и наблюдаю, как идея ИИ, возникая из ниоткуда, становится доминирующей темой, формирующей целую отрасль. Некогда несбыточная мечта теперь поддерживает прибыль некоторых из самых дорогих компаний мира и, как можно утверждать, фондовый рынок США. Она оправдывает головокружительные первоначальные взносы за новые электростанции и центры обработки данных, которые, как нам говорят, необходимы для воплощения мечты в реальность. Зациклившись на этой гипотетической технологии, компании, занимающиеся ИИ, навязывают нам свою продукцию.

Только послушайте, что нам говорят руководители некоторых из этих компаний. ИИ будет таким же умным, как целая «страна гениев» (Дарио Амодеи, генеральный директор Anthropic); он положит начало «эре максимального процветания человечества, когда мы отправимся к звёздам и колонизируем галактику» (Демис Хассабис, генеральный директор Google DeepMind); он «значительно увеличит изобилие и процветание», даже побудит людей больше наслаждаться жизнью и заводить больше детей (Сэм Альтман, генеральный директор OpenAI). Вот это продукт!

Или нет. Конечно, не стоит забывать и об обратной стороне. Когда эти люди не ратуют за утопию, они спасают нас от ада. В 2023 году Амодеи, Хассабис и Альтман подписались под заявлением из 22 слов: «Снижение риска вымирания из-за ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война». Илон Маск утверждает, что вероятность уничтожения человечества ИИ составляет 20%.

Что такое ИИ? Читать далее

«Недавно я заметила, что концепция сверхинтеллекта, о которой, как я думала, определённо не стоит упоминать, если хочешь, чтобы тебя воспринимали всерьёз на публике, всё чаще обсуждается руководителями технологических компаний, которые, по всей видимости, планируют его создать», — говорит Катя Грейс, ведущий исследователь AI Impacts, организации, которая проводит опросы исследователей искусственного интеллекта в своей области. «Мне кажется, легко подумать, что это нормально. Они также говорят, что он нас убьёт, но при этом смеются».

Согласитесь, всё это звучит как ерунда. Если вы строите теорию заговора, вам нужно несколько вещей: схема, достаточно гибкая, чтобы поддерживать веру, даже если всё идёт не по плану; обещание лучшего будущего, которое может стать реальностью только в том случае, если верующие откроют скрытые истины; и надежда на спасение от ужасов этого мира.

ИИОН почти соответствует всем этим критериям. Чем больше вы углубляетесь в эту идею, тем больше она начинает походить на заговор. Конечно, это не так — не совсем так. И я провожу эту параллель не для того, чтобы отрицать вполне реальные, зачастую ошеломляющие результаты, достигнутые многими людьми в этой области, включая (или особенно) сторонников ИИОН.

Но, сосредоточившись на тех общих чертах, которые есть у ИИОН с настоящими теориями заговора, я думаю, мы можем лучше сфокусировать внимание на всей концепции и раскрыть ее такой, какой она является: техно-утопической (или техно-дистопической — выбирайте сами) лихорадочной мечтой, которая зацепилась за некоторые глубоко укоренившиеся убеждения, от которых теперь трудно избавиться.

Это не просто провокационный мысленный эксперимент. Важно переосмыслить то, что нам говорят об ИИ, потому что вера в эту идею не безобидна. Сейчас ИИ — важнейший нарратив в сфере технологий и, в какой-то степени, в мировой экономике. Мы не сможем понять, что происходит в сфере ИИ, не понимая, откуда возникла идея ИИ, почему она так привлекательна и как она формирует наше восприятие технологий в целом.

Понимаю, понимаю — называть ИИ заговором — не самая удачная аналогия. К тому же, это многих разозлит. Но давайте спустимся со мной в эту кроличью нору, и я покажу вам, что к чему.

Как Кремниевая долина получила AGI-пилюлю

Это было похоже на звонкое

Типичная теория заговора обычно начинается на периферии. Возможно, это просто пара человек, которые пишут на форуме, собирая «доказательства». Возможно, это несколько человек в пустыне с биноклями, ожидающих увидеть яркие огни в небе. Но некоторым теориям заговора везет, если хотите: они начинают распространяться шире; они начинают становиться немного более приемлемыми; они начинают влиять на людей у власти. Возможно, это НЛО (кхм, извините, «неопознанные воздушные явления»), которые теперь официально и открыто обсуждаются на правительственных слушаниях. Возможно, это скептицизм в отношении вакцин (да, гораздо более опасный пример), который становится официальной политикой. И невозможно игнорировать то, что искусственный интеллект общего назначения последовал по довольно похожей траектории, что и его более откровенно конспирологические собратья.

Давайте вернёмся в 2007 год, когда искусственный интеллект не был ни модным, ни крутым. Такие компании, как Amazon и Netflix (который всё ещё рассылал DVD по почте), использовали модели машинного обучения — протоорганизмы для современных гигантов магистратуры права, — чтобы рекомендовать клиентам фильмы и книги. Но на этом, пожалуй, всё.

У Бена Герцеля были гораздо более масштабные планы. Примерно десятью годами ранее исследователь искусственного интеллекта основал интернет-стартап Webmind, чтобы тренировать своего рода цифровой мозг ребёнка в условиях раннего интернета. Оставшись бездетным, Webmind вскоре обанкротился.

Но Герцель был влиятельной фигурой в узком сообществе исследователей, которые годами мечтали о создании человекоподобного искусственного интеллекта — универсальной компьютерной программы, способной делать многое из того, что делают люди (и делать это лучше). Это видение выходило далеко за рамки технологий, с которыми экспериментировал Netflix.

Герцель хотел выпустить книгу, продвигающую эту концепцию, и ему нужно было название, которое выделяло бы её на фоне банального ИИ того времени. Бывший сотрудник Webmind Шейн Легг предложил название «Искусственный общий интеллект». Звучало заманчиво.

Несколько лет спустя Легг стал соучредителем DeepMind вместе с Демисом Хассабисом и Мустафой Сулейманом. Но для большинства серьёзных исследователей того времени утверждение о том, что ИИ когда-нибудь сможет имитировать человеческие способности, было своего рода шуткой. Сутскевер рассказал мне, что слово «ИИН» раньше было ругательным. Эндрю Нг, основатель Google Brain и бывший главный научный сотрудник китайского технологического гиганта Baidu, сказал мне, что считает это безумием.

Так что же произошло? В прошлом месяце я встретился с Герцелем, чтобы узнать, как маргинальная идея превратилась из безумной в банальность. «Я, в общем-то, специалист по сложным хаотичным системам, поэтому, по моим скромным оценкам, я действительно знаю, какова была нелинейная динамика в мемосфере», — сказал он. (Перевод: Это сложно.)

Герцель считает, что несколько факторов сделали эту идею популярной. Во-первых, это Конференция по общему искусственному интеллекту, ежегодная встреча исследователей, которую он помог организовать в 2008 году, через год после публикации своей книги. Конференция часто координировалась с ведущими научными мероприятиями, такими как конференция Ассоциации по развитию искусственного интеллекта и Международная объединённая конференция по искусственному интеллекту. «Если бы я просто опубликовал книгу под названием „AGI“, она, возможно, просто исчезла бы», — говорит Герцель. «Но конференция проходила ежегодно, и на неё приезжало всё больше студентов».

Далее идёт Легг, который принёс этот термин в DeepMind. «Думаю, они были первой крупной корпорацией, заговорившей об ИИОН», — говорит Герцель. «Это не было главной темой их рассуждений, но Шейн и Демис время от времени говорили об этом. Это, безусловно, стало источником легитимации».

Когда пять лет назад я впервые говорил с Леггом об ИИОН, он сказал: «В начале 2000-х разговоры об ИИОН заставляли сходить с ума… Даже когда мы запустили DeepMind в 2010 году, на конференциях мы получали поразительное количество закатываний глаз». Но к 2020 году ситуация изменилась. «Некоторым это не нравится, но это возвращается к нам с холода», — сказал он мне.

Третье, на что указывает Герцель, — это совпадение интересов первых евангелистов ИИ и влиятельных фигур из крупных технологических компаний. В период между закрытием Webmind и публикацией книги об ИИ Герцель работал с Питером Тилем в его хедж-фонде Clarium Capital. «Мы много говорили», — говорит Герцель. Он вспоминает, как провёл день с Тилем в отеле Four Seasons в Сан-Франциско. «Я пытался вбить ему в голову идею ИИ», — говорит Герцель. «Но затем он услышал от Элиезера, что ИИ убьёт всех».

Входят думеры

Это Элиезер Юдковски, ещё одна влиятельная фигура, сделавшая не меньше Герцеля, если не больше, для продвижения идеи ОИИ. Но, в отличие от Герцеля, Юдковски считает, что существует очень высокая вероятность (99,5% — это одна из цифр, которую он называет), что разработка ОИИ обернётся катастрофой.

В 2000 году Юдковски стал соучредителем некоммерческой исследовательской организации «Институт сингулярности искусственного интеллекта» (позже переименованной в Институт исследований машинного интеллекта), которая довольно быстро занялась предотвращением катастрофических сценариев. Тиль стал одним из первых благотворителей.

Поначалу идеи Юдковски не получили широкого распространения. Вспомним, что в то время идея всемогущего ИИ, не говоря уже об опасном, была чистой научной фантастикой. Но в 2014 году Ник Бостром, философ из Оксфордского университета, опубликовал книгу под названием «Суперинтеллект».

«Благодаря этому появилась идея об ИИ, — говорит Герцель. — Билл Гейтс, Илон Маск — многие специалисты по ИИ из технологической индустрии — прочитали эту книгу, и, независимо от того, соглашались они с его мрачной точкой зрения или нет, Ник взял концепции Элиезера и облек их в весьма приемлемую форму».

«Всё это придало AGI статус приемлемого», — добавляет Герцель. «Вместо того, чтобы это была полная чушь от индивидуалистов, воющих в пустыне».

1 ОБЗОР ТЕХНОЛОГИЙ СТЕФАНИ АРНЕТТ/MIT | ОБЩЕСТВЕННОЕ ДОСТОЯНИЕ

Юдковски твердит одну и ту же мысль уже 25 лет; многие инженеры ведущих сегодня компаний в сфере искусственного интеллекта выросли, читая и обсуждая его взгляды в сети, особенно на LessWrong — популярном сайте для пылкого сообщества рационалистов и эффективных альтруистов технологической отрасли.

Сегодня эти взгляды популярны как никогда, захватывая воображение молодого поколения пессимистов, таких как Дэвид Крюгер, исследователь из Монреальского университета, ранее занимавший должность научного руководителя Британского института безопасности искусственного интеллекта. «Я думаю, мы определённо на пути к созданию сверхчеловеческих систем искусственного интеллекта, которые убьют всех», — говорит мне Крюгер. «И я считаю, что это ужасно, и мы должны немедленно это прекратить».

Юдковски попал в поле зрения таких изданий, как New York Times, которая называет его «проповедником конца света из Кремниевой долины». Его новая книга «Если кто-то это построит, все умрут», написанная совместно с Нейтом Соаресом, президентом Института исследований машинного интеллекта, содержит дикие, но малодоказательные заявления о том, что если мы не остановим разработку, то в ближайшем будущем ИИ приведёт к глобальному Армагеддону. Позиция этих авторов радикальна: они утверждают, что международный запрет должен быть реализован любой ценой, вплоть до ядерного возмездия. В конце концов, «центры обработки данных могут убить больше людей, чем ядерное оружие», пишут Юдковски и Соарес.

Эта информация больше не является узкоспециализированной. Книга стала бестселлером по версии New York Times и получила рекомендации экспертов по национальной безопасности, таких как Сюзанна Сполдинг, бывшая сотрудница Министерства внутренней безопасности США, и Фиона Хилл, бывший старший директор Совета национальной безопасности Белого дома, которая сейчас консультирует правительство Великобритании; известных учёных, таких как Макс Тегмарк и Джордж Чёрч; и других известных личностей, включая Стивена Фрая, Марка Руффало и Граймса. У Юдковски теперь есть мегафон.

Тем не менее, именно эти первые тихие слова, услышанные некоторыми, могут оказаться наиболее значимыми. Юдковски считается тем, что познакомил Тиля с основателями DeepMind, после чего Тиль стал одним из первых крупных инвесторов компании. После слияния с Google компания стала внутренней лабораторией искусственного интеллекта технологического гиганта Alphabet.

Наряду с Маском, Тиль также сыграл важную роль в создании OpenAI в 2015 году, вложив миллионы в стартап, основанный на единственной амбиции — построить AGI и сделать его безопасным. В 2023 году генеральный директор OpenAI Сэм Альтман написал в X: «По моему мнению, Элиезер сделал больше для ускорения AGI, чем кто-либо другой. Безусловно, он заинтересовал многих из нас в AGI». Юдковски, возможно, когда-нибудь заслужит Нобелевскую премию мира за это, добавил Альтман. Но к тому моменту Тиль, по-видимому, стал опасаться «специалистов по безопасности ИИ» и той власти, которую они получали. «Вы не понимаете, как Элиезер запрограммировал половину людей в вашей компании верить в эту ерунду», — как сообщается, сказал он Альтману на званом ужине в конце 2023 года. «Вам нужно отнестись к этому серьезнее». По словам репортера Wall Street Journal Кича Хейджи, Альтман «старался не закатывать глаза».

В настоящее время OpenAI является самой дорогой частной компанией в мире, ее стоимость составляет полтриллиона долларов.

И трансформация завершена: как и все самые могущественные теории заговора, теория ИИ вошла в мейнстрим и прочно укоренилась.

Великий заговор AGI

Термин «AGI» появился на рынке менее 20 лет назад, но мифотворчество, стоящее за ним, существует с начала компьютерной эры — космический микроволновый фон наглости и маркетинга.

Алан Тьюринг задался вопросом, способны ли машины мыслить, всего через пять лет после создания первого электронного компьютера ENIAC в 1945 году. А вот что сказал Тьюринг чуть позже, в радиопередаче 1951 года: «Похоже, что как только машинное мышление будет запущено, оно быстро превзойдёт наши слабые возможности. Не будет и речи о том, чтобы машины вымерли, и они смогут общаться друг с другом, оттачивая свой интеллект. Поэтому на каком-то этапе следует ожидать, что машины возьмут управление в свои руки».

Затем, в 1955 году, учёный-компьютерщик Джон Маккарти и его коллеги подали заявку на получение государственного финансирования от правительства США на создание того, что они, как оказалось, решили назвать «искусственным интеллектом» — весьма ловкий ход, учитывая, что компьютеры того времени были размером с комнату и такими же глупыми, как термостат. Тем не менее, как писал Маккарти в этой заявке на финансирование: «Будет предпринята попытка найти способ заставить машины использовать язык, формировать абстракции и концепции, решать задачи, которые сейчас доступны только людям, и совершенствовать себя».

Именно этот миф лежит в основе теории заговора об ОИИ. Машина, превосходящая человека и способная на всё, — это не технология. Это мечта, оторванная от реальности. Как только вы это увидите, начнут проявляться и другие параллели с теориями заговора.

Невозможно опровергнуть идею изменения формы, такую как ОИИ.

Разговор об ОИИ иногда напоминает спор с увлечённым пользователем Reddit о том, какие наркотики (или частицы в небе) контролируют ваш разум. На каждое утверждение есть контраргумент, который пытается разрушить ваше собственное представление об истине. В конечном счёте, это столкновение мировоззрений, а не обмен доводами, основанными на фактах. ОИИ тоже такой — он скользкий.

Отчасти проблема в том, что, несмотря на все деньги и разговоры, никто не знает, как его построить. Более того: большинство людей даже не сходятся во мнении, что такое ИИОН на самом деле, — что объясняет, почему люди умудряются утверждать, что он может одновременно спасти мир и положить ему конец. В основе большинства определений лежит идея машины, способной не уступать людям в широком спектре когнитивных задач. (И помните, сверхинтеллект — это блестящий апгрейд ИИОН: машина, способная превзойти нас.) Но даже это легко разобрать: о каких людях идёт речь? Какого рода когнитивные задачи? И насколько широк этот спектр?

«Чёткого определения этому нет», — говорит Кристофер Саймонс, главный специалист по искусственному интеллекту в стартапе Lirio, занимающемся разработкой искусственного интеллекта в сфере здравоохранения, и бывший руководитель отдела компьютерных наук и математики в Национальной лаборатории Оук-Ридж. «Если вы говорите об „интеллекте на уровне человека“, это может означать бесконечное множество вещей — уровень интеллекта у каждого немного разный».

Итак, говорит Саймонс, мы ввязались в эту странную гонку по созданию… чего именно? «Что вы пытаетесь заставить его делать?»

Искусственный интеллект: насколько мы близки к этому, и есть ли смысл вообще пытаться? Читать далее

В 2023 году группа исследователей из Google DeepMind, включая Легга, попыталась классифицировать различные определения, предложенные для ИИОН. Одни утверждали, что машина должна уметь учиться; другие — что она должна уметь зарабатывать деньги; третьи — что она должна иметь тело и передвигаться по миру (и, возможно, варить кофе).

Легг рассказал мне, что, когда он предложил Герцелю этот термин для названия своей книги, эта неопределённость была своего рода смыслом. «У меня не было чёткого определения. Я не чувствовал в этом необходимости», — сказал он тогда. «На самом деле я воспринимал его скорее как область исследования, а не как артефакт».

Итак, думаю, мы узнаем, когда увидим? Проблема в том, что некоторые люди думают, что уже видели это.

В 2023 году группа исследователей Microsoft опубликовала статью, в которой описала свой опыт работы с предварительной версией большой языковой модели OpenAI GPT-4. Они назвали её «Искрами искусственного интеллекта общего назначения» — и она вызвала неоднозначную реакцию в отрасли.

Это был момент, когда многие исследователи были потрясены и пытались осознать увиденное. «Всё работало лучше, чем они ожидали», — говорит Герцель. «Концепция ОИИ действительно начала казаться более правдоподобной».

И всё же, несмотря на всю эту примечательную игру слов, свойственную магистрам права, Герцель не считает, что в них действительно есть зачатки ИИ. «Меня немного удивляет, что некоторые люди с глубоким техническим пониманием того, как эти инструменты работают изнутри, всё ещё считают, что они могут стать ИИ человеческого уровня», — говорит он. «С другой стороны, невозможно доказать, что это не так».

И вот оно: невозможно доказать, что это неправда. «Идея о том, что ОИИ грядёт, что он уже не за горами и неизбежен, породила множество отступлений от реальности», — говорит Вэллор из Эдинбургского университета. «Но у нас нет никаких доказательств этого».

Теории заговора снова нависли над нами. Предсказания о появлении ОИИ делаются с точностью нумерологов, отсчитывающих время до конца света. В игре нет реальных ставок, сроки приходят и уходят, не задумываясь. Придумываются оправдания, и сроки снова корректируются.

Мы увидели это, когда этим летом OpenAI выпустила нашумевшую версию GPT-5. Сторонники ИИ были разочарованы тем, что новая версия флагманской технологии компании не стала тем прорывом, которого они ожидали. Но вместо того, чтобы увидеть в этом доказательство недостижимости ИИ (или, по крайней мере, недостижимости с магистерской степенью), сторонники ИИ выдвинули свои прогнозы о том, как скоро ИИ появится. Он действительно появится — просто, как говорится, в следующий раз.

Возможно, они правы. Или, возможно, люди выбирают любые возможные доказательства, чтобы защитить идею, и игнорируют доказательства, опровергающие её. Джереми Коэн, изучающий конспирологию в технологических кругах Университета Макмастера в Канаде, называет этот несовершенный сбор доказательств отличительной чертой конспирологического мышления.

Коэн начал свою исследовательскую карьеру в пустыне Аризоны, изучая сообщество под названием «People Unlimited», члены которого верили в бессмертие. Это убеждение не поддавалось никаким доказательствам. Когда члены сообщества умирали естественной смертью (включая двух его основателей), считалось, что они, должно быть, заслужили это. «Все считали, что каждая смерть — это самоубийство», — говорит Коэн. «Если вы бессмертны, заболели раком и умерли — значит, вы сделали что-то не так».

С тех пор Коэн сосредоточился на трансгуманизме (идее о том, что технологии могут помочь людям преодолеть естественные ограничения) и искусственном интеллекте. «Я вижу много параллелей. Существуют формы магического мышления, которые, на мой взгляд, являются частью популярного представления об искусственном интеллекте», — говорит он. «Это очень хорошо соотносится с религиозными представлениями, которые можно увидеть в современных теориях заговора».

Верующие посвящены в секрет ОИИ.

Возможно, некоторые из вас считают меня идиотом: вы вообще ничего не понимаете, лол. Но именно в этом и суть. Есть свои и чужие. Когда я общаюсь с исследователями или инженерами, которые с радостью включают в разговор тему ИИОН как само собой разумеющееся, создается впечатление, что они знают что-то, чего не знаю я. Но никто так и не смог мне объяснить, что это за «что-то».

Истина где-то рядом, если знать, где искать. Теории заговора в первую очередь стремятся раскрыть скрытую правду, говорит мне Коэн: «Это действительно фундаментальная часть конспирологического мышления, и это особенно заметно в том, как люди говорят об ОИИ», — говорит он.

В прошлом году 23-летний бывший сотрудник OpenAI, ставший инвестором, Леопольд Ашенбреннер опубликовал 165-страничный манифест под названием «Ситуационная осведомлённость», который был подвергнут тщательному анализу. Его не нужно читать, чтобы понять: вы либо видите правду о грядущем, либо нет. И вам не нужны холодные, суровые факты — достаточно почувствовать это. Те, кто не видит, просто не увидели свет.

Эта идея тоже где-то вскользь проскользнула в моём разговоре с Герцелем. Например, когда я спросил его, почему люди скептически относятся к ИИОН, он ответил: «Ещё до любого крупного технического достижения, от полёта человека до появления электроэнергии, множество мудрецов объясняли, почему этого никогда не произойдёт. Дело в том, что большинство людей верят только тому, что видят перед собой».

Это превращает ИИОН в символ веры. Я спросил об этом Крюгера, который считает, что появление ИИОН ожидается, возможно, лет через пять. Он усмехнулся: «Думаю, это полная чушь». Для него символ веры — это идея, что этого не произойдёт, — это скептики продолжают отрицать очевидное. (Тем не менее, он уклоняется от прямого ответа: никто не знает наверняка, говорит он, но нет очевидных причин, по которым ИИОН не появится.)

Скрытые истины привлекают искателей истины, стремящихся раскрыть то, что они видели всегда. Однако с ИИ недостаточно просто раскрыть что-то скрытое. Здесь откровение требует беспрецедентного акта творения. Если вы верите в достижимость ИИ, то вы верите, что те, кто его создаёт, — повитухи машин, которые сравняются с человеческим интеллектом или превзойдут его. «Идея рождения машинных богов, очевидно, очень льстит вашему самолюбию», — говорит Вэллор. «Невероятно соблазнительно думать, что вы сами закладываете первые основы этой трансцендентности».

Это ещё одно совпадение с теориями заговора. Отчасти это связано с желанием обрести смысл жизни в этом хаотичном мире, который может казаться бессмысленным, — с желанием стать влиятельным человеком.

Крюгер, работающий в Беркли, говорит, что знает людей, работающих над ИИ, которые считают эту технологию нашим естественным преемником. «Для них это как завести детей или что-то в этом роде», — говорит он. «Кстати, обычно у них детей нет».

ИИ станет нашим единственным истинным спасителем (или принесет апокалипсис).

Коэн видит параллели между многими современными теориями заговора и движением Нью-Эйдж, достигшим пика своего влияния в 1970-х и 1980-х годах. Его приверженцы верили, что человечество стоит на пороге эпохи духовного благополучия и расширенного сознания, которая приведет к более мирному и процветающему миру. Вкратце, идея заключалась в том, что, занимаясь псевдорелигиозными практиками, включая астрологию и тщательное изучение кристаллов, люди преодолеют свои ограничения и вступят в своего рода утопию хиппи.

Современная технологическая индустрия построена на вычислениях, а не на кристаллах, но её понимание того, что поставлено на карту, не менее трансцендентно: «Знаете, эта идея о том, что произойдёт этот фундаментальный сдвиг, этот милленаристский поворот, в результате которого мы окажемся в техноутопическом будущем», — говорит Коэн. «И идея о том, что ИИ в конечном итоге позволит человечеству преодолеть стоящие перед нами проблемы».

По мнению многих, ИИ появится внезапно. Постепенные успехи в развитии ИИ будут накапливаться, пока в один прекрасный день ИИ не станет достаточно хорош, чтобы начать самостоятельно создавать более совершенный ИИ. В этот момент — FOOM — он будет развиваться так быстро, что ИИ появится в том, что часто называют взрывом интеллекта, что приведёт к точке невозврата, известной как Сингулярность, глупый термин, который был популярен в кругах ИИ уже много лет. Заимствуя концепцию из физики, писатель-фантаст Вернор Виндж впервые представил идею технологической сингулярности в 1980-х годах. Виндж представил себе горизонт событий на пути технологического прогресса, за которым люди будут быстро обойдены экспоненциальным самосовершенствованием созданных ими машин.

1

Назовите это Большим взрывом искусственного интеллекта — и это, опять же, даёт нам представление о «до» и «после», о трансцендентном моменте, когда человечество, каким мы его знаем, изменится навсегда (к лучшему или к худшему). «Люди представляют это как событие», — говорит Грейс из AI Impacts.

Для Вэллор эта система убеждений примечательна тем, как вера в технологии заменила веру в человека. Несмотря на все эти пустые слова, философия Нью Эйдж, по крайней мере, вдохновлялась идеей о том, что у людей есть всё необходимое, чтобы изменить мир самостоятельно, если бы они только могли к этому приобщиться. Стремясь к ИИ, мы отказались от этой самоуверенности и поверили в то, что только технологии могут нас спасти, говорит она.

Эта мысль кажется многим убедительной и даже утешительной. «Мы живём в эпоху, когда другие пути к материальному улучшению жизни людей и наших обществ, похоже, исчерпаны», — говорит Вэллор.

Когда-то технологии обещали путь к лучшему будущему: прогресс был лестницей, по которой мы могли подняться к человеческому и социальному процветанию. «Мы уже прошли эту вершину», — говорит Вэллор. «Я думаю, единственное, что даёт многим надежду и возвращает оптимизм в отношении будущего, — это ИИ».

«Если довести эту идею до конца, то снова ИИ станет своего рода богом, который сможет облегчить земные страдания», — говорит Вэллор.

Келли Джойс, социолог из Университета Северной Каролины, изучающая, как культурные, политические и экономические убеждения формируют наше восприятие и использование технологий, считает все эти смелые прогнозы об ИИ чем-то более банальным: частью долгосрочной тенденции завышать ожидания со стороны технологической индустрии. «Меня удивляет, что мы каждый раз попадаемся в ловушку», — говорит она. «Существует глубокое убеждение, что технологии лучше людей».

Джойс считает, что именно поэтому, когда начинается ажиотаж, люди склонны в него верить. «Это религия», — говорит она. «Мы верим в технологии. Технологии — это Бог. Противостоять им очень сложно. Люди не хотят об этом слышать».

Как ИИ захватил отрасль

Фантазия о компьютерах, способных практически на всё, что может человек, соблазнительна. Но, как и многие распространённые теории заговора, она имеет вполне реальные последствия. Она исказила наше представление о ставках, стоящих за нынешним технологическим бумом (и потенциальным крахом). Возможно, она даже пустила под откос всю отрасль, отнимая ресурсы у более непосредственного, более практического применения технологий. Более того, она даёт нам возможность лениться. Она обманывает нас, заставляя думать, что мы можем избежать тяжёлой работы, необходимой для решения неразрешимых, глобальных проблем — проблем, которые потребуют международного сотрудничества, компромиссов и дорогостоящей помощи. Зачем об этом беспокоиться, если скоро у нас будут машины, которые всё решат за нас?

Представьте себе, сколько ресурсов вкладывается в этот грандиозный проект. Только в прошлом месяце OpenAI и Nvidia объявили о партнёрстве на сумму до 100 миллиардов долларов, которое позволит гиганту чиповой индустрии обеспечить не менее 10 гигаватт ненасытного спроса ChatGPT. Это больше, чем мощность атомных электростанций. Столько энергии может высвободить даже молния. Конденсатору потока внутри машины времени DeLorean доктора Эммета Брауна требовалось всего 1,2 гигаватта, чтобы отправить Марти обратно в будущее. А всего две недели спустя OpenAI объявила о втором партнёрстве с производителем чипов AMD, которое обеспечит ещё шесть гигаватт мощности.

Рекламируя сделку с Nvidia на CNBC, Альтман с серьёзным выражением лица заявил, что без строительства такого центра обработки данных людям придётся выбирать между лекарством от рака и бесплатным образованием. «Никто не хочет делать такой выбор», — сказал он. (Всего несколько недель спустя он объявил, что в ChatGPT появятся эротические чаты.)

Добавьте к этим затратам потерю инвестиций в более актуальные технологии, которые могли бы изменить жизнь людей сегодня, завтра и послезавтра. «Для меня это огромная упущенная возможность, — говорит Саймонс из Lirio, — вкладывать все эти ресурсы в решение чего-то туманного, когда мы уже знаем, что существуют реальные проблемы, которые мы можем решить».

Но таким компаниям, как OpenAI, работать нужно иначе. «Когда люди вливают в эти компании столько денег, им нет нужды этого делать», — говорит Саймонс. «Если у вас есть сотни миллиардов долларов, вам не нужно сосредотачиваться на практичном, решаемом проекте».

Несмотря на свою твёрдую веру в грядущее появление ИИ, Крюгер также считает, что однобокая погоня индустрии за ним означает, что потенциальные решения реальных проблем, таких как улучшение здравоохранения, игнорируются. «Вся эта чушь про ИИ — чушь, отвлечение внимания, просто шумиха», — говорит он мне.

И то, как правительства поддерживают и регулируют технологии (или не поддерживают). Тина Лоу, изучающая технологическую политику в Калифорнийском университете в Дэвисе, обеспокоена тем, что политики поддаются лоббированию в отношении того, как ИИ однажды убьёт нас всех, вместо того, чтобы решать реальные проблемы, связанные с тем, как ИИ может повлиять на жизнь людей непосредственно и ощутимо уже сегодня. Неравенство отошло на второй план из-за экзистенциального риска.

«Ажиотаж — прибыльная стратегия для технологических компаний», — говорит Лоу. Значительная часть этого ажиотажа основана на идее неизбежности происходящего: если мы не создадим что-то, это сделает кто-то другой. «Когда что-то представляется неизбежным, — говорит Лоу, — люди сомневаются не только в том, стоит ли им сопротивляться, но и в том, способны ли они это сделать». Все оказываются в ловушке.

По словам Милтона Мюллера из Технологического института Джорджии, занимающегося вопросами технологической политики и регулирования, искажение в сфере ИИ не ограничивается технологической политикой. По его словам, гонку за ИИ сравнивают с гонкой за атомную бомбу. «Поэтому тот, кто первым его получит, получит абсолютную власть над всеми остальными. Это безумная и опасная идея, которая действительно исказит наш подход к внешней политике».

По словам Мюллера, у компаний (и правительств) есть бизнес-стимул продвигать миф об ИИОН, поскольку они могут заявить, что первыми его достигнут. Но поскольку они участвуют в гонке, в которой никто не определился с финишной чертой, миф можно поддерживать до тех пор, пока он приносит пользу. Или пока инвесторы готовы в него поверить.

Нетрудно понять, к чему это приводит. Это не утопия и не ад — OpenAI и её коллеги зарабатывают гораздо больше.

Великий заговор AGI, завершенный

И, возможно, это возвращает нас к теме заговора — и к позднему повороту сюжета. До сих пор мы игнорировали одну популярную особенность конспирологических теорий: то, что за кулисами стоит группа влиятельных фигур, и что, стремясь к истине, верующие могут разоблачить эту элитную клику.

Конечно, люди, чувствующие наличие ОИИ, публично не обвиняют никаких иллюминатов или силы, подобные ВЭФ, в предотвращении будущего ОИИ или сокрытии его секретов.

Но что, если на самом деле здесь есть теневые кукловоды — и именно они всё это время больше всех продвигали теорию заговора об ИИ? Короли Кремниевой долины бросают всё, что могут, на создание ИИ ради прибыли. Миф об ИИ служит их интересам больше, чем чьим-либо ещё.

Как недавно сказал нам один из руководителей высшего звена компании, занимающейся разработкой искусственного интеллекта, до появления ИИ всегда должно пройти от шести месяцев до года, потому что если это произойдет позже, вы не сможете набрать людей с Джейн-стрит, а если это произойдет ближе к тому моменту, когда уже наступит, то какой в этом смысл?

Как говорит Вэллор: «Если OpenAI заявляет, что они создают машину, которая сделает корпорации еще более могущественными, чем они есть сегодня, это не получит той общественной поддержки, которая им нужна».

Помните: вы создаёте бога и сами становитесь подобным ему. Крюгер говорит, что в Кремниевой долине распространено мнение, согласно которому создание ИИ — это способ захватить огромную власть. (Это, например, один из постулатов «Ситуационной осведомлённости» Ашенбреннера.) «Знаете, у нас будет эта божественная сила, и нам придётся решить, что с ней делать», — говорит Крюгер. «Многие думают, что если они окажутся там первыми, то, по сути, смогут захватить мир».

«Они прилагают огромные усилия, чтобы продать свое видение будущего с ИИОН, и они добиваются в этом большого успеха, потому что у них так много власти», — добавляет он.

Герцель, например, почти сокрушается по поводу успеха этой заговорщицкой кабалы. Он начинает скучать по жизни на периферии. «В моём поколении нужно было обладать большим видением, чтобы хотеть работать над ИИ, и очень упрямым», — говорит он. «А теперь это почти как то, что бабушка советует делать, чтобы найти работу, вместо того, чтобы учиться на экономиста».

«Меня сбивает с толку, что эта тема так широко принята», — говорит он. «У меня почти возникает желание заняться чем-то другим, чем занимаются не так уж и многие». Он, кажется, полушутит: «Очевидно, что завершение работы над ИИ важнее, чем удовлетворение моего желания быть на переднем крае».

Но я не совсем понимаю, что именно они доделывают. Что это означает для технологий в целом, если мы так сильно поддаёмся сказкам? Во многом, я думаю, вся идея ИИОН построена на искажённом представлении о том, чего мы должны ожидать от технологий, и даже о том, что такое интеллект в первую очередь. Если отбросить суть, аргумент в пользу ИИОН основан на предпосылке, что одна технология, ИИ, стала очень хорошей, очень быстрой и будет продолжать совершенствоваться. Но отбросьте технические возражения — а что, если он не будет совершенствоваться? — и у вас останется утверждение, что интеллект — это товар, которого можно получить больше, если у вас есть нужные данные, вычислительные мощности или нейронная сеть. И это не так.

Интеллект не является показателем, который можно просто увеличивать. Умные люди могут быть гениальны в одной области и не очень в других. Некоторые лауреаты Нобелевской премии совершенно не умеют играть на пианино или ухаживать за детьми. Некоторые очень умные люди настаивают на том, что в следующем году появится ОИИ.

Трудно не задаться вопросом, что же зацепит нас в следующий раз.

Прежде чем закончить разговор, Герцель рассказал мне о мероприятии в Сан-Франциско, посвященном сознанию искусственного интеллекта и парапсихологии, которое он только что посетил: «ЭСВ, предвидение и все такое».

«Вот где был ОИИ 20 лет назад, — сказал он. — Все считают это полной чушью».

Источник: www.technologyreview.com

✅ Найденные теги: Как, новости

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Фото сгенерированных лиц: исследование показывает, что люди не могут отличить настоящие лица от сгенерированных
Нейросети построили капитализм за трое суток: 100 агентов Claude заперли…
Скетч: цифровой осьминог и виртуальный мир внутри компьютера с человечком.
Сцена с жестами пальцами, где один жест символизирует "VPN", а другой "KHP".
‼️Paramount купила Warner Bros. Discovery — сумма сделки составила безумные…
Скриншот репозитория GitHub "Claude Scientific Skills" AI для научных исследований.
Структура эффективного запроса Claude с элементами задачи, контекста и референса.
Эскиз и готовая веб-страница платформы для AI-дизайна в современном темном режиме.
ideipro logotyp
Image Not Found
Звёздное небо с галактиками и туманностями, космос, Вселенная, астрофотография.

Система оповещения обсерватории Рубина отправила 800 000 сигналов в первую ночь наблюдений.

Астрономы будут получать оповещения о небесных явлениях в течение нескольких минут после их обнаружения. Теренс О'Брайен, редактор раздела «Выходные». Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной…

Мар 2, 2026
Женщина с длинными тёмными волосами в синем свете, нейтральный фон.

Расследование в отношении 61-фунтовой машины, которая «пожирает» пластик и выплевывает кирпичи.

Обзор компактного пресса для мягкого пластика Clear Drop — и что будет дальше. Шон Холлистер, старший редактор Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице вашего…

Мар 2, 2026
Черный углеродное волокно с текстурой плетения, отражающий свет.

Материал будущего: как работает «бессмертный» композит

Учёные из Университета штата Северная Каролина представили композит нового поколения, способный самостоятельно восстанавливаться после серьёзных повреждений.  Речь идёт о модифицированном армированном волокном полимере (FRP), который не просто сохраняет прочность при малом весе, но и способен «залечивать» внутренние…

Мар 2, 2026
Круглый экран с изображением замка и горы, рядом электронная плата.

Круглый дисплей Waveshare для креативных проектов

Круглый 7-дюймовый сенсорный дисплей от Waveshare создан для разработчиков и дизайнеров, которым нужен нестандартный экран.  Это IPS-панель с разрешением 1 080×1 080 пикселей, поддержкой 10-точечного ёмкостного сенсора, оптической склейкой и защитным закалённым стеклом, выполненная в круглом форм-факторе.…

Мар 2, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых