По мере того, как системы искусственного интеллекта превосходят один эталон за другим, наши стандарты «интеллекта, подобного человеческому», продолжают развиваться

“Когда ИИ достигнет уровня интеллекта, подобного человеческому?»Недавно я спросил об этом своего друга. «Это уже произошло», — ответил он, предположив, что если бы вы перенеслись назад во времени в 1995 год и оценили наши текущие версии искусственного интеллекта с этой точки зрения, большинство людей сочли бы интеллект этой технологии похожим на человеческий — возможно, даже сверхчеловеческий. По его словам, ориентиры для развития интеллекта, подобного человеческому, меняются с каждым разом, когда ИИ совершенствуется.
Интеллект всегда было непросто определить. На протяжении десятилетий мы спорили о том, что формирует аналитический, творческий и эмоциональный интеллект у людей, взвешивая ценность следования инструкциям и самостоятельности. Мы сделали то же самое с машинами, и мой друг прав: цель, которую мы поставили перед ИИ-интеллектом, постоянно менялась.
Тема не просто философская. Рассмотрим контракт, заключенный, когда Microsoft и OpenAI начали сотрудничать в 2019 году. В своем блоге OpenAI сообщила, что инвестиции Microsoft в компанию стоимостью 1 миллиард долларов «помогут нам создать искусственный интеллект общего назначения (AGI)», который в уставе OpenAI определяется как «высокоавтономные системы, которые превосходят людей в наиболее экономически ценной работе»..»
О поддержке научной журналистики
Если вам понравилась эта статья, подумайте о том, чтобы поддержать нашу журналистику, отмеченную наградами, подписавшись на нее. Приобретая подписку, вы помогаете обеспечить будущее впечатляющих историй об открытиях и идеях, формирующих наш современный мир.
Три недели назад, 28 октября, Microsoft и OpenAI обновили свое соглашение. В соответствии с этим Microsoft сохраняет особый доступ к технологии OpenAI и сохраняет за собой право использовать ее первой в продуктах до тех пор, пока OpenAI не сообщит, что она достигла AGI. Согласно новому соглашению, Microsoft также имеет права на модели «после AGI» до 2032 года, и если OpenAI заявит, что они достигли AGI, это заявление будет проверено независимой группой экспертов. В связи с этим возникает сложный вопрос: как эта группа экспертов будет решать, когда будет достигнут интеллект человеческого уровня?
С 1950 года основным критерием оценки машинного интеллекта является тест Тьюринга, предложенный компьютерным пионером Аланом Тьюрингом. Идея проста: судья-человек общается с невидимым человеком и машиной посредством текстовых сообщений и должен решить, кто из них человек. Если судья не может достоверно отличить их друг от друга, машина пропускает процесс.
В течение десятилетий, последовавших за предложением Тьюринга, исследователи создавали символьные системы, используя правила и логику для имитации решения проблем человеком. Их программы решали головоломки и играли в игры, но были в основном бесполезны, когда сталкивались со сложностями реального мира. В начале 1990-х годов были созданы «экспертные системы», которые кодировали человеческие знания, но функционировали только в чрезвычайно узких областях.
Современная эра началась в 2010-х годах, когда нейронные сети и большие наборы данных позволили машинам изучать шаблоны вместо того, чтобы полагаться на фиксированные правила. В 1997 году компания IBM Deep Blue обыграла гроссмейстера Гарри Каспарова, и шахматы, которые были основой «мышления», внезапно потеряли свое значение в дискуссиях об интеллекте. Модели для перевода, распознавания изображений и языка также начали совершенствоваться. В 2015 году модель визуализации показала лучшие результаты, чем предполагаемые результаты работы человека при классификации объектов. В конце 2010-х другие программы превзошли задачи, связанные с языком и логикой. В период с 2015 по 2017 год AlphaGo, созданная для игры в Го, более сложную игру, чем шахматы, победила лучших игроков мира в Го.
Ученый-когнитивист Дуглас Хофштадтер утверждает, что мы перерисовываем границы «реального интеллекта» всякий раз, когда машины достигают способностей, которые когда-то считались исключительно человеческими, сводя эти задачи к простым механическим способностям, чтобы сохранить человечностьэто отличие. Каждый раз, когда ИИ превосходит планку для достижения человеческих навыков, мы повышаем ее.
Так возникла концепция AGI — для описания системы, которая может понимать, учиться и действовать во многих областях с гибкостью человеческого разума. Представленный в 1997 году физиком Марком Аврумом Губрудом, он был популяризирован в 2000‑х годах и прижился, потому что отошел от концепции искусственного интеллекта как имитации салонной игры и перешел к разработке критериев, которые оценивают компетентность в различных областях и в самых разных ситуациях. Это означало, что Deep Blue, ImageNet и AlphaGo должны были не только превзойти людей в своих областях знаний, но и получить степень доктора философии по математике, написать художественную литературу, заслуживающую наград, и сколотить состояние на фондовом рынке — потому что, конечно же, именно это и означает быть человеком.
Вот почему, когда GPT-4.5 от OpenAI уверенно прошла тест Тьюринга в 2025 году, это достижение почти не попало в новости. Это также объясняет, почему, когда GPT-4 получала высший балл на имитационном экзамене в адвокатуру или когда какая-либо из современных моделей frontier решала вопросы на уровне доктора философии, мы не готовились к битве с роботами, как во многих научно-фантастических фильмах предсказывал, что так и будет. Но если бы мы вернулись в 1990-е годы и представили системы, которые могли бы свободно говорить о науке, создавать веб-сайты за считанные секунды, предлагать устные переводы в режиме реального времени и составлять приемлемое завещание, люди вполне могли бы создать ядерное оружие.
Тем не менее, чего-то не хватает. Мой друг прав — машинный интеллект соответствует или превосходит способности человека во многих областях, но быть воплощенным человеком сложно, и наши представления об интеллекте значительно расширились. Хотя в отчете AI Index за этот год, подготовленном Стэнфордским институтом ИИ, ориентированного на человека, подчеркивается, что технология осваивает новые стандарты быстрее, чем когда-либо, в нем также подчеркивается, что сложные рассуждения остаются сложной задачей.
Как отмечали многие мыслители, проблема может заключаться просто в концепции человекоподобного интеллекта. Если интеллект ИИ воспринимается как неравномерный, а наш — нет, то это потому, что мы сами выбрали себя в качестве стандарта. Эволюция дала нам способность к логическому мышлению и твердую психику, которая ограничивает размер наших баз данных. С этой точки зрения, мы также неоднородны. И поскольку мы постоянно меняем цели для УЧИ, информация, которая поступает, может быть такой, которую мы с трудом узнаем.



























