В нашем списке «Лучшая научная литература 2025 года» исследование Карен Хао об искусственном интеллекте показывает, что будущее ИИ все еще в наших руках

Технологический репортер Карен Хао начала писать об искусственном интеллекте в 2018 году, еще до появления ChatGPT, и является одним из немногих журналистов, получивших доступ к внутреннему миру создателя чат-бота OpenAI. В своей книге «Империя искусственного интеллекта» Хао описывает рост противоречивой компании.
В своем исследовании Хао беседовала с лидерами OpenAI, учеными и работниками начального уровня по всему миру. люди во всем мире, которые формируют развитие искусственного интеллекта. Она исследует его потенциал для научных открытий и его влияние на окружающую среду, а также стремление создать машину, которая сможет конкурировать с человеческим интеллектом благодаря искусственному общему интеллекту (AGI).
Scientific American поговорила с Хао о ее глубоком репортаже об искусственном интеллекте, потенциальном месте Сэма Олтмана в будущем искусственного интеллекта и о том, как технология может помочь продолжайте менять мир.
О поддержке научной журналистики
Если вам понравилась эта статья, подумайте о том, чтобы поддержать нашу журналистику, отмеченную наградами, подписавшись на нее. Приобретая подписку, вы помогаете обеспечить будущее впечатляющих историй об открытиях и идеях, формирующих наш современный мир.
[Ниже приводится отредактированная стенограмма интервью.]
Насколько реалистична цель создания искусственного интеллекта общего назначения (AGI)?
В науке нет единого мнения о том, что такое интеллект, поэтому ИИ и AGI по своей сути не связаны между собой. Это помогает снизить ажиотаж вокруг Кремниевой долины, когда говорят, что Искусственный интеллект не за горами, и это также помогает осознать, что отсутствие предопределенности в отношении того, что такое ИИ и что он должен делать, оставляет много возможностей для всех.
Вы утверждаете, что мы должны думать об ИИ в терминах империй и колониализма. Можете ли вы объяснить, почему?
Я называю такие компании, как OpenAI, империями как из-за масштабов, на которых они работают, так и из-за контрольного влияния, которое они развили, а также тактика, с помощью которой они накопили огромную экономическую и политическую власть. Они накапливают эту власть, лишая права собственности большую часть остального мира.
В современной индустрии искусственного интеллекта также присутствует огромная идеологическая составляющая. Идея создания искусственного интеллекта общего назначения основана на вере. Это не научная идея. Это квазирелигиозное представление о том, что если мы продолжим идти по определенному пути развития ИИ, то каким-то образом появится своего рода бог ИИ, который решит все проблемы человечества. Колониализм — это сплав капитализма и идеологии, поэтому существует множество параллелей между древними империями и империями искусственного интеллекта.
Также параллель в том, как они оба разрушают окружающую среду. Какое воздействие ИИ на окружающую среду вызывает наибольшее беспокойство?
Существует так много пересекающихся кризисов, что путь развития индустрии ИИ становится все более сложным. Одним из них, конечно же, является энергетический кризис. Сэм Альтман объявил, что к 2033 году он хочет построить 250 гигаватт мощностей центров обработки данных только для своей компании. Нью-Йорк [потребляет] в среднем 5,5 гигаватт [в день]. Альтман подсчитал, что это обойдется примерно в 10 триллионов долларов — где он собирается взять эти деньги? Кто знает.
Но если бы это произошло, основными источниками энергии были бы ископаемые виды топлива. Ранее в этом году Business Insider провел расследование, в ходе которого выяснилось, что коммунальные предприятия «торпедируют» свои планы по использованию возобновляемых источников энергии, чтобы удовлетворить спрос на центры обработки данных. Таким образом, мы видим, что срок службы электростанций, работающих на природном газе и угле, продлевается. Это не просто приводит к выбросам вредных веществ в атмосферу; это также приводит к загрязнению воздуха в населенных пунктах.
Итак, вопрос в следующем: как долго мы собираемся бороться с реальным ущербом и терпеть спекулятивныйвозможность того, что, может быть, в конце пути все будет хорошо? Ранее в этом году был проведен опрос, который показал, что [примерно] 75 процентов опытных исследователей ИИ, которые не связаны с промышленностью, не считают, что мы находимся на пути к созданию искусственного интеллекта общего назначения. Мы не должны использовать крошечную возможность на отдаленном горизонте, которая даже не подкреплена научно, для оправдания экстраординарного и необратимого ущерба, который происходит прямо сейчас.
Вы согласны думаете, Сэм Олтман солгал о способностях OpenAI, или он просто попался на удочку собственного маркетинга?
Это отличный вопрос. Самое сложное в OpenAI, что удивило меня больше всего, когда я делал репортаж, это то, что существуют квазирелигиозные движения, которые развились вокруг таких идей, как «УЧИ может решить все проблемы человечества» или «УЧИ может убить всех»..” Действительно, трудно понять, является ли сам Альтман верующим или он просто счел политически подкованным использовать эти убеждения.
Вы многое сделали о том, как работники помогают осуществить эту революцию в области искусственного интеллекта. Что вы обнаружили?
Я отправился в Кению, чтобы встретиться с работниками, с которыми OpenAI заключил контракты, а также с работниками, с которыми заключали контракты другие представители индустрии искусственного интеллекта. OpenAI хотел, чтобы они помогли создать фильтр для модерации контента для моделей GPT компании. В то время они пытались расширить свои усилия по коммерциализации и поняли, что если вы предоставите модели генерации текстов, которые могут генерировать что угодно, в руки миллионов людей, вы столкнетесь с проблемой, потому что это может привести к распространению расистских, ядовитых высказываний ненависти в адрес пользователей, и это стало бы серьезным пиар-кризисом.
Для сотрудников это означало, что им приходилось пробираться через наихудший контент в Интернете, а также контент, в котором OpenAI предлагал свои собственные решения. Искусственный интеллект моделирует наихудший контент в Интернете, чтобы предоставить этим работникам более разнообразный и исчерпывающий набор примеров. Эти работники получили те же психологические травмы, что и модераторы контента в эпоху социальных сетей.
Я также поговорил с работниками, которые находились в разных звеньях цепочки поставок рабочей силы, в рамках обучения с подкреплением на основе обратной связи с людьми. Это метод, принятый во многих компаниях, где десятки тысяч сотрудников должны обучать модель правильному ответу, когда пользователь общается с чат-ботом.
Я разговаривал с одной женщиной, Винни, работал на платформе Remotasks, которая является серверной частью Scale AI, одного из основных поставщиков обучения с подкреплением на основе обратной связи с людьми. Контент, с которым она работала, сам по себе не обязательно был травмирующим, но условия, в которых она работала, были глубоко эксплуататорскими: она никогда не знала, на кого работает, а также никогда не знала, когда поступят задания. Когда я разговаривал с ней, она уже несколько месяцев ждала получения задания, и когда оно поступало, она работала по 22 часа в сутки, просто пытаясь заработать как можно больше денег, чтобы в конечном итоге прокормить своих детей.
Это источник жизненной силы индустрии искусственного интеллекта, и все же эти работники не видят абсолютно никакой экономической ценности, которую они создают для этих компаний.
Некоторые люди опасаются, что искусственный интеллект может превзойти человеческий интеллект и захватить власть над миром. Вас пугает этот риск?
Я не верю, что ИИ в конечном итоге создаст какое-то собственное агентство, и я не думаю, что стоит поучаствовать в проекте, который пытается разработать агентурные системы, лишающие людей возможности действовать самостоятельно.
То, что я считаю гораздо более обнадеживающим видением будущего ИИ, — это возвращение назад к разработке моделей ИИ и систем ИИ, которые поддерживают людей, а не вытесняют их. И одна из вещей, которая меня действительно вдохновляет, — это специализированные модели искусственного интеллекта для решения конкретных проблем, которые мы должны преодолеть как общество.
Один из примеров, который я часто привожу, это из AlphaFold от DeepMind, который также является специализированным инструментом глубокого обучения, который был разработан на относительно небольшом количестве компьютерных чипов для точного предсказания структур сворачивания белка на основе последовательности аминокислот. [Его разработчики] в прошлом году получили Нобелевскую премию [по] химии. Я думаю, что мы должны вкладывать свою энергию, время и талант в создание таких систем искусственного интеллекта.
Есть ли другие книги на эту тему, которые вы читали во время написания этой книги или которые вам недавно понравились, и которые вы могли бы мне порекомендовать?
Я бы порекомендовала книгу Ребекки Солнит «Надежда в темноте», которую я прочитала после публикации моей книги. Может показаться, что это не связано напрямую, но так оно и есть. Солнит приводит доводы в пользу свободы воли человека — она призывает людей помнить, что мы совместно создаем будущее своими индивидуальными и коллективными действиями. Это также величайшее послание, которое я хочу донести до людей из моей книги. Империи искусственного интеллекта не неизбежны — и альтернативный путь развития находится в наших руках.
























