Поскольку «общий интеллект» остаётся недостижимым, OpenAI всё больше ориентируется на решения, ориентированные на конкретные приложения. Рекомендации по здоровью — самый опасный вариант для неё.

Перед тем, как OpenAI выпустила GPT-5 в прошлый четверг, генеральный директор Сэм Альтман заявил, что возможности проекта заставили его почувствовать себя «бесполезным по сравнению с ИИ». Он добавил, что работа над проектом, по его мнению, обременительна для разработчиков атомной бомбы.
В то время как технологические гиганты сходятся во мнениях относительно схожих моделей, новое предложение OpenAI должно было дать представление о новейших горизонтах развития ИИ. Оно должно было ознаменовать собой скачок к «искусственному интеллекту общего назначения», который, как обещали евангелисты технологий, изменит человечество к лучшему.
Вопреки этим ожиданиям модель в целом не оправдала ожиданий.
Пользователи указали на грубые ошибки в ответах GPT-5, опровергая заявление Альтмана, сделанное им при запуске, о том, что GPT-5 работает как «настоящий эксперт уровня PhD в любой области, которая вам нужна, по запросу». Ранние тестировщики также обнаружили проблемы с обещанием OpenAI, что GPT-5 автоматически определяет, какой тип модели ИИ лучше всего подходит для вашего вопроса — модель рассуждений для более сложных запросов или более быстрая модель для более простых. Альтман, похоже, признал, что эта функция несовершенна и лишает пользователя контроля. Однако есть и хорошие новости: модель, похоже, смягчила проблему подхалимства ChatGPT перед пользователями, поскольку GPT-5 реже осыпает их чрезмерными комплиментами.
В целом, как отметила моя коллега Грейс Хакинс, новая версия представляет собой скорее обновление продукта, предоставляющее более удобные и привлекательные способы общения с помощью ChatGPT, а не прорыв, который меняет представления о возможностях искусственного интеллекта.
Но из всего этого можно извлечь ещё один вывод. Какое-то время компании, занимающиеся разработкой ИИ, не особо задумывались о том, как можно использовать их модели. Вместо этого планировалось просто построить максимально умную модель — своего рода мозг — и поверить, что она справится со многими задачами. Написание стихов стало бы таким же естественным, как изучение органической химии. Достичь этого можно было бы благодаря более совершенным моделям, более совершенным методам обучения и техническим прорывам.
Ситуация меняется: сейчас игра направлена на то, чтобы продвигать существующие модели в более широком контексте, раздувая популярность конкретных приложений. Компании стали более настойчиво обещать, например, что их модели ИИ смогут заменить программистов-людей (даже если предварительные данные свидетельствуют об обратном). Возможное объяснение этого поворота в том, что технологические гиганты просто не совершили ожидаемых прорывов. Возможно, на данный момент мы застряли лишь с незначительными улучшениями в возможностях крупных языковых моделей. Это оставляет компаниям, работающим в сфере ИИ, один вариант: работать с тем, что есть.
Связанная история
Этот нашумевший релиз вносит ряд улучшений в пользовательский интерфейс ChatGPT. Но до уровня AGI ему всё ещё далеко.
Самым ярким примером этого является запуск GPT-5, то, как OpenAI поощряет людей использовать его для консультаций по вопросам здоровья — одной из самых сложных сфер применения ИИ.
Поначалу OpenAI в основном не поддерживал медицинские вопросы. Если вы пытались спросить ChatGPT о своём здоровье, он выдавал множество предупреждений о том, что он не врач, а на некоторые вопросы вообще отказывался отвечать. Но, как я недавно сообщал, эти предупреждения стали исчезать с выходом новых моделей OpenAI. Теперь его модели не только интерпретируют рентгеновские снимки и маммограммы, но и задают уточняющие вопросы, помогающие поставить диагноз.
В мае компания OpenAI дала понять, что попытается заняться решением медицинских вопросов напрямую. Компания анонсировала HealthBench — инструмент оценки эффективности систем ИИ в решении медицинских вопросов на основе мнений врачей. В июле компания опубликовала исследование, в котором участвовала сама, в котором сообщалось, что группа врачей в Кении допустила меньше диагностических ошибок, воспользовавшись помощью модели ИИ.
С запуском GPT-5 компания OpenAI начала открыто призывать людей использовать её модели для получения медицинских консультаций. На презентации Альтман приветствовал на сцене Фелипе Миллона, сотрудника OpenAI, и его жену Каролину Миллон, у которой недавно был диагностирован рак нескольких форм. Каролина рассказала о том, как обращалась в ChatGPT за помощью в постановке диагноза, загрузив копии результатов биопсии в ChatGPT для перевода медицинских терминов, и обратилась к ИИ за помощью в принятии решений, например, о необходимости лучевой терапии. Трио назвало это воодушевляющим примером сокращения разрыва в знаниях между врачами и пациентами.
С таким изменением подхода OpenAI вступает в опасные отношения.
Во-первых, компания использует данные о том, что врачи могут использовать ИИ в качестве клинического инструмента, как в исследовании, проведённом в Кении, чтобы предложить людям без медицинского образования обращаться к модели ИИ за советом по вопросам собственного здоровья. Проблема в том, что многие люди могут обратиться за этим советом, даже не посоветовавшись с врачом (и теперь, когда чат-бот редко предлагает им это сделать, они делают это реже).
Действительно, за два дня до запуска GPT-5 в журнале Annals of Internal Medicine была опубликована статья о мужчине, который после разговора с ChatGPT перестал есть соль и начал употреблять опасное количество бромида. У него развилось отравление бромом (которое практически исчезло в США после того, как Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) в 1970-х годах начало ограничивать использование бромида в безрецептурных препаратах), а затем он едва не умер, проведя несколько недель в больнице.
Так в чём же смысл всего этого? По сути, речь идёт об ответственности. Когда компании, занимающиеся разработкой ИИ, переходят от обещаний общего интеллекта к предложению человеческой помощи в конкретной области, например, в здравоохранении, возникает второй, пока безответный вопрос: что произойдёт, если будут допущены ошибки. В настоящее время мало что указывает на то, что технологические компании будут нести ответственность за причинённый ущерб.
«Когда врачи дают вам вредные медицинские советы из-за ошибки или предвзятости, вы можете подать на них в суд за врачебную халатность и получить компенсацию», — говорит Дэмиен Уильямс, доцент кафедры науки о данных и философии в Университете Северной Каролины в Шарлотте.
«Когда ChatGPT дает вам вредные медицинские советы, потому что он был обучен на предвзятых данных или потому что «галлюцинации» являются неотъемлемой частью работы системы, каковы ваши действия?»
Эта статья первоначально была опубликована в «Алгоритме», нашей еженедельной рассылке об искусственном интеллекте. Чтобы первыми получать подобные статьи, подпишитесь здесь.
Источник: www.technologyreview.com



























