Коллаж с рукой на фоне строительных лесов и лампочки на жёлтом фоне.

Внутри масштабной стратегии OpenAI в области науки.

Эксклюзивная беседа с Кевином Вейлом, руководителем OpenAI for Science, новой внутренней команды, цель которой — повысить производительность ученых.

На фотоиллюстрации представлен абстрактный коллаж, изображающий большую языковую модель, включающий женскую фигуру за коммутатором, типографские штампы, логотип OpenAI и лампочку.

Фотоиллюстрация Сары Роджерс/MITTR | Фотографии Getty

За три года, прошедшие с момента взрывного дебюта ChatGPT, технология OpenAI кардинально изменила множество повседневных действий дома, на работе, в школах — везде, где у людей открыт браузер или в руках телефон, а это повсюду.

Теперь OpenAI целенаправленно работает на благо ученых. В октябре компания объявила о создании совершенно новой команды под названием OpenAI for Science, которая занимается изучением того, как ее большие языковые модели могут помочь ученым, и доработкой своих инструментов для их поддержки.

В последние пару месяцев в социальных сетях и научных публикациях появилось множество сообщений от математиков, физиков, биологов и других специалистов, которые описывали, как LLM-ы (и, в частности, GPT-5 от OpenAI) помогли им сделать открытие или подтолкнули к решению, которое они могли бы иначе упустить. Отчасти проект OpenAI for Science был создан для взаимодействия с этим сообществом.

И все же OpenAI тоже опоздала. Google DeepMind, конкурирующая компания, стоящая за такими новаторскими научными моделями, как AlphaFold и AlphaEvolve, уже много лет имеет команду, занимающуюся разработкой ИИ для научных исследований. (Когда я в 2023 году разговаривал с генеральным директором и соучредителем Google DeepMind Демисом Хассабисом об этой команде, он сказал мне: «Именно поэтому я основал DeepMind… На самом деле, именно поэтому я всю свою карьеру посвятил работе в сфере ИИ».)

Так почему именно сейчас? Как продвижение в науку вписывается в более широкую миссию OpenAI? И чего именно компания надеется достичь?

На прошлой неделе я задал эти вопросы Кевину Вейлу, вице-президенту OpenAI, возглавляющему новую команду OpenAI for Science, в эксклюзивном интервью.

Выполняя миссию

Вейл — специалист по продуктам. Он присоединился к OpenAI пару лет назад в качестве директора по продуктам, до этого возглавляя отделы продуктов в Twitter и Instagram. Но начинал он как учёный. Он прошёл две трети пути к получению докторской степени по физике элементарных частиц в Стэнфордском университете, прежде чем бросить академическую карьеру ради мечты о работе в Силиконовой долине. Вейл стремится подчеркнуть своё образование: «Я думал, что буду профессором физики всю оставшуюся жизнь, — говорит он. — Я до сих пор читаю математические книги на каникулах».

На вопрос о том, как OpenAI for Science вписывается в существующую линейку инструментов повышения производительности для офисных работников или в вирусное видеоприложение Sora, Вейл повторяет девиз компании: «Миссия OpenAI — попытаться создать искусственный общий интеллект и, знаете, сделать его полезным для всего человечества».

«Только представьте, какое влияние эта технология может оказать на науку в будущем», — говорит он: «Новые лекарства, новые материалы, новые устройства. Подумайте о том, как она поможет нам понять природу реальности, поможет нам осмыслить нерешенные проблемы. Возможно, самое большое и позитивное влияние, которое мы увидим от искусственного общего интеллекта, будет заключаться в его способности ускорить научные исследования».

Он добавляет: «С GPT-5 мы увидели, что это становится возможным».

Как отмечает Вейл, ученые-магистры права теперь достаточно компетентны, чтобы быть полезными научными сотрудниками. Они могут генерировать идеи, предлагать новые направления исследований и находить плодотворные параллели между новыми проблемами и старыми решениями, опубликованными в малоизвестных журналах десятилетия назад или на иностранных языках.

Спросите ИИ. Почему это важно для вас? БЕТА-ВЕРСИЯ. Вот почему, по мнению ИИ, эта история может быть важна для вас. Это бета-версия, и ИИ может выдавать галлюцинации — это может быть странно . Отрасль, которая меня интересует, — это… Узнайте больше о том, как мы используем ИИ.

Ещё год назад ситуация была иной. С момента анонса своей первой так называемой модели рассуждений — типа LLM, способной разбивать проблемы на несколько этапов и решать их по очереди, — в декабре 2024 года OpenAI расширяет границы возможностей этой технологии. Модели рассуждений значительно улучшили способность LLM решать математические и логические задачи по сравнению с тем, что было раньше. «Ещё несколько лет назад мы все были поражены тем, что модели могли получить 800 баллов на SAT», — говорит Вейл.

Но вскоре студенты магистратуры стали побеждать на математических конкурсах и решать задачи по физике уровня аспирантуры. В прошлом году OpenAI и Google DeepMind объявили, что их студенты магистратуры достигли уровня золотых медалей на Международной математической олимпиаде, одном из самых сложных математических конкурсов в мире. «Эти модели уже не просто лучше, чем 90% аспирантов, — говорит Вейл. — Они действительно находятся на переднем крае человеческих возможностей».

Это смелое утверждение, и оно имеет свои оговорки. Тем не менее, нет сомнений в том, что GPT-5, включающий модель рассуждений, является значительным улучшением по сравнению с GPT-4, когда речь идет о решении сложных задач. По сравнению с отраслевым эталоном GPQA, который включает более 400 вопросов с множественным выбором, проверяющих знания уровня доктора наук в области биологии, физики и химии, GPT-4 набирает 39%, что значительно ниже базового показателя эксперта-человека, составляющего около 70%. По данным OpenAI, GPT-5.2 (последнее обновление модели, выпущенное в декабре) набирает 92%.

Переоценено

Волнение очевидно — и, возможно, чрезмерно. В октябре высокопоставленные сотрудники OpenAI, включая Вейла, хвастались на X, что GPT-5 нашел решения нескольких нерешенных математических задач. Математики поспешили указать, что на самом деле GPT-5, по-видимому, обнаружил существующие решения в старых научных статьях, включая, по крайней мере, одну, написанную на немецком языке. Это все еще было полезно, но это не было тем достижением, о котором, как казалось, заявляла OpenAI. Вейл и его коллеги удалили свои сообщения.

Теперь Вейл более осторожен. По его словам, часто достаточно найти ответы, которые существуют, но были забыты: «Мы все вместе стоим на плечах гигантов, и если магистерские программы могут накапливать эти знания, чтобы нам не приходилось тратить время на решение уже решенной проблемы, это само по себе является ускорением».

Он преуменьшает значение идеи о том, что магистерские программы вот-вот совершат какое-то революционное открытие. «Я не думаю, что модели уже достигли нужного уровня», — говорит он. «Возможно, они к этому придут. Я оптимистично настроен на это».

Но, как он настаивает, это не является нашей миссией: «Наша миссия — ускорить развитие науки. И я не думаю, что планка для ускорения развития науки — это, например, переосмысление целой области науки на уровне Эйнштейна».

Для Вейля вопрос звучит так: «Действительно ли научные исследования развиваются быстрее, потому что ученые и модели могут сделать гораздо больше и быстрее, чем одни только ученые? Думаю, мы уже это наблюдаем».

В ноябре компания OpenAI опубликовала серию примеров из практики, присланных учеными как из самой компании, так и извне, которые иллюстрировали, как они использовали GPT-5 и как это им помогло. «В большинстве случаев ученые уже использовали GPT-5 непосредственно в своих исследованиях и так или иначе обращались к нам со словами: „Посмотрите, чего я могу добиться с помощью этих инструментов“», — говорит Вейл.

Основные задачи GPT-5, по-видимому, заключаются в поиске ссылок и связей с существующими работами, о которых ученые не знали, что иногда порождает новые идеи; в помощи ученым в построении математических доказательств; и в предложении способов проверки гипотез в лаборатории.

«GPT 5.2 прочитал практически все научные статьи, написанные за последние 30 лет, — говорит Вейл. — И он понимает не только область, в которой работает конкретный ученый; он может находить аналогии в других, не связанных между собой областях».

«Это невероятно мощно, — продолжает он. — Всегда можно найти человека-сотрудника в смежной области, но трудно найти, знаете ли, тысячу сотрудников во всех тысячах смежных областях, которые могут иметь значение. И вдобавок к этому, я могу работать с моделью поздно ночью — она не спит — и я могу задать ей 10 вопросов одновременно, что довольно неудобно делать с человеком».

Решение проблем

Большинство ученых, с которыми связалась компания OpenAI, поддержали позицию Вейла.

Роберт Шеррер, профессор физики и астрономии в Университете Вандербильта, лишь изредка экспериментировал с ChatGPT ради развлечения («Я использовал его для переписывания заглавной песни для сериала «Остров Гиллигана» в стиле «Беовульфа», и у него это отлично получалось», — рассказывает он мне), пока его коллега из Вандербильта, физик Алекс Лупсаска, который сейчас работает в OpenAI, не сказал ему, что GPT-5 помог решить проблему, над которой он работал.

Лупсаска предоставил Шерреру доступ к GPT-5 Pro, премиальной подписке OpenAI стоимостью 200 долларов в месяц. «Ей удалось решить задачу, которую мы с моим аспирантом не смогли решить, несмотря на многомесячную работу над ней», — говорит Шеррер.

Он говорит, что система не идеальна: «GTP-5 всё ещё допускает глупые ошибки. Конечно, я тоже, но ошибки, которые допускает GPT-5, ещё глупее». И всё же, по его словам, она продолжает совершенствоваться: «Если нынешние тенденции сохранятся — а это большое «если» — я подозреваю, что вскоре все учёные будут использовать LLM».

Дерья Унутмаз, профессор биологии в лаборатории Джексона, некоммерческом исследовательском институте, использует GPT-5 для генерации идей, обобщения научных работ и планирования экспериментов в своей работе по изучению иммунной системы. В исследовании, которым он поделился с OpenAI, Унутмаз использовал GPT-5 для анализа старого набора данных, который его команда уже изучала ранее. Модель предложила новые идеи и интерпретации.

«Материалы LLM уже сейчас незаменимы для ученых, — говорит он. — Когда вы можете завершить анализ наборов данных, на который раньше уходили месяцы, не использовать их больше нельзя».

Никита Животовский, статистик из Калифорнийского университета в Беркли, говорит, что использует LLM-ы в своих исследованиях с момента выхода первой версии ChatGPT.

Как и Шеррер, он считает LLM наиболее полезными, когда они выявляют неожиданные связи между его собственной работой и существующими результатами, о которых он не знал. «Я считаю, что LLM становятся важным техническим инструментом для ученых, подобно тому, как это делали компьютеры и интернет раньше», — говорит он. «Я ожидаю, что в долгосрочной перспективе те, кто их не использует, окажутся в невыгодном положении».

Однако он не ожидает, что магистерские программы в ближайшее время принесут какие-либо новые открытия. «Я видел очень мало действительно свежих идей или аргументов, которые стоили бы отдельной публикации», — говорит он. «Пока что, похоже, они в основном объединяют существующие результаты, иногда некорректно, а не предлагают действительно новые подходы».

Я также связался с несколькими учеными, не имеющими отношения к OpenAI.

Энди Купер, профессор химии Ливерпульского университета и директор исследовательского центра Леверхулма по проектированию функциональных материалов, настроен менее воодушевленно. «Мы пока не обнаружили, что LLM коренным образом меняют методы научных исследований, — говорит он. — Но наши недавние результаты показывают, что им есть место».

Купер возглавляет проект по разработке так называемого ученого-ИИ, способного полностью автоматизировать часть научного рабочего процесса. Он говорит, что его команда не использует магистров права для генерации идей. Но эта технология начинает доказывать свою полезность в рамках более широкой автоматизированной системы, где магистр права может, например, помогать управлять роботами.

«Я предполагаю, что выпускники магистратуры могут больше сосредоточиться на роботизированных рабочих процессах, по крайней мере, на начальном этапе, потому что я не уверен, что люди готовы к тому, чтобы им указывали, что делать, выпускники магистратуры», — говорит Купер. «Я сам точно не готов».

Совершение ошибок

Возможно, LLM-ы становятся все более полезными, но осторожность по-прежнему важна. В декабре Джонатан Оппенхайм, ученый, работающий в области квантовой механики, указал на ошибку, допущенную в научном журнале. «Руководство OpenAI продвигает статью в Physics Letters B, где GPT-5 предложил основную идею — возможно, первую рецензируемую статью, в которой LLM-модель внесла ключевой вклад», — написал Оппенхайм на X. «Одна небольшая проблема: идея GPT-5 проверяет не то, что нужно».

Он продолжил: «GPT-5 попросили разработать тест, который выявляет нелинейные теории. Он предоставил тест, который выявляет нелокальные теории. Звучит похоже, но это разные вещи. Это как попросить тест на COVID, а LLM с радостью вручит вам тест на ветрянку».

Совершенно очевидно, что многие ученые находят инновационные и интуитивно понятные способы взаимодействия с LLM. Также очевидно, что технология допускает ошибки, которые могут быть настолько незаметными, что их не замечают даже эксперты.

Частично проблема заключается в том, как ChatGPT может льстить вам, заставляя вас расслабиться. Как выразился Оппенгейм: «Ключевая проблема в том, что LLM-ы обучаются для проверки знаний пользователя, в то время как науке нужны инструменты, которые бросают нам вызов». В крайнем случае, один человек (не являвшийся ученым) был убежден ChatGPT в том, что он на протяжении нескольких месяцев считал себя изобретателем новой области математики.

Конечно, Вейль прекрасно осведомлен о проблеме галлюцинаций. Но он настаивает на том, что у новых моделей галлюцинации случаются все реже и реже. Тем не менее, по его словам, сосредоточение внимания на галлюцинациях может быть упущением сути проблемы.

«Один из моих коллег по команде, бывший профессор математики, сказал мне кое-что, что мне запомнилось, — говорит Вейл. — Он сказал: „Когда я провожу исследования, если я обмениваюсь идеями с коллегой, я ошибаюсь в 90% случаев, и в этом-то и суть. Мы оба просто обмениваемся идеями и пытаемся найти что-то, что сработает“».

«На самом деле, это желанное положение», — говорит Вейл. «Если вы скажете достаточно много неправильных вещей, а потом кто-то наткнется на крупицу правды, и другой человек подхватит ее и скажет: „О, да, это не совсем правильно, но что, если мы…“ — то постепенно вы как бы прокладываете свой путь сквозь лес».

Это основная концепция OpenAI для науки, разработанная Вейлом. GPT-5 хорош, но это не оракул. Ценность этой технологии заключается в том, чтобы указывать людям новые направления, а не давать окончательные ответы, говорит он.

На самом деле, одна из задач, над которой сейчас работает OpenAI, — это снижение уровня уверенности GPT-5 при выдаче ответа. Вместо того чтобы говорить: «Вот ответ», он мог бы сообщать ученым: «Вот что следует учесть».

«На самом деле, мы уделяем этому много времени, — говорит Вейл. — Мы стараемся убедиться, что модель обладает определенной эпистемологической скромностью».

Наблюдение за наблюдателями

Еще одно направление, которое изучает OpenAI, — это использование GPT-5 для проверки фактов с помощью GPT-5. Часто бывает так, что если ввести в модель один из ответов GPT-5, она его проанализирует и выявит ошибки.

«Можно как бы подключить модель в качестве собственного критика, — говорит Вейл. — Тогда можно создать рабочий процесс, в котором модель думает, а затем обращается к другой модели, и если эта модель обнаруживает что-то, что можно улучшить, она возвращает результат исходной модели и говорит: „Эй, подождите-ка, эта часть была неправильной, но эта часть интересна. Оставьте её“. Это почти как пара агентов, работающих вместе, и вы видите результат только после того, как он пройдет проверку критика».

То, что описывает Вейл, очень похоже на то, что сделала Google DeepMind с AlphaEvolve — инструментом, который интегрировал LLM-компанию Gemini в более широкую систему, отфильтровывающую хорошие ответы от плохих и возвращающую их обратно для улучшения. Google DeepMind использовала AlphaEvolve для решения ряда реальных задач.

OpenAI сталкивается с жесткой конкуренцией со стороны конкурирующих компаний, чьи собственные LLM-модели способны на большинство, если не на все, заявленные функции. В таком случае, почему ученые должны использовать GPT-5 вместо Gemini или Claude от Anthropic — семейств моделей, которые сами по себе улучшаются с каждым годом? В конечном счете, OpenAI for Science может быть скорее попыткой закрепиться на новой территории, чем чем-либо еще. Настоящие инновации еще впереди.

«Я думаю, что 2026 год станет для науки тем же, чем 2025 год стал для разработки программного обеспечения», — говорит Вейл. «В начале 2025 года, если вы использовали ИИ для написания большей части своего кода, вы были одним из первых пользователей. Тогда как 12 месяцев спустя, если вы не используете ИИ для написания большей части своего кода, вы, вероятно, отстанете. Сейчас мы наблюдаем те же самые первые проблески в науке, что и в программировании».

Он продолжает: «Я думаю, что через год, если вы ученый и не будете активно использовать ИИ, вы упустите возможность повысить качество и скорость своего мышления».

Источник: www.technologyreview.com

✅ Найденные теги: OpenAI, Внутри, исследования, Масштаб, наука, новости, Стратегия

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Фото сгенерированных лиц: исследование показывает, что люди не могут отличить настоящие лица от сгенерированных
Нейросети построили капитализм за трое суток: 100 агентов Claude заперли…
Скетч: цифровой осьминог и виртуальный мир внутри компьютера с человечком.
Сцена с жестами пальцами, где один жест символизирует "VPN", а другой "KHP".
‼️Paramount купила Warner Bros. Discovery — сумма сделки составила безумные…
Скриншот репозитория GitHub "Claude Scientific Skills" AI для научных исследований.
Структура эффективного запроса Claude с элементами задачи, контекста и референса.
Эскиз и готовая веб-страница платформы для AI-дизайна в современном темном режиме.
ideipro logotyp
Image Not Found
Звёздное небо с галактиками и туманностями, космос, Вселенная, астрофотография.

Система оповещения обсерватории Рубина отправила 800 000 сигналов в первую ночь наблюдений.

Астрономы будут получать оповещения о небесных явлениях в течение нескольких минут после их обнаружения. Теренс О'Брайен, редактор раздела «Выходные». Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной…

Мар 2, 2026
Женщина с длинными тёмными волосами в синем свете, нейтральный фон.

Расследование в отношении 61-фунтовой машины, которая «пожирает» пластик и выплевывает кирпичи.

Обзор компактного пресса для мягкого пластика Clear Drop — и что будет дальше. Шон Холлистер, старший редактор Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице вашего…

Мар 2, 2026
Черный углеродное волокно с текстурой плетения, отражающий свет.

Материал будущего: как работает «бессмертный» композит

Учёные из Университета штата Северная Каролина представили композит нового поколения, способный самостоятельно восстанавливаться после серьёзных повреждений.  Речь идёт о модифицированном армированном волокном полимере (FRP), который не просто сохраняет прочность при малом весе, но и способен «залечивать» внутренние…

Мар 2, 2026
Круглый экран с изображением замка и горы, рядом электронная плата.

Круглый дисплей Waveshare для креативных проектов

Круглый 7-дюймовый сенсорный дисплей от Waveshare создан для разработчиков и дизайнеров, которым нужен нестандартный экран.  Это IPS-панель с разрешением 1 080×1 080 пикселей, поддержкой 10-точечного ёмкостного сенсора, оптической склейкой и защитным закалённым стеклом, выполненная в круглом форм-факторе.…

Мар 2, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых