Пациенты и врачи обращаются к ИИ за диагностикой и рекомендациями по лечению, часто добиваясь блестящих результатов, но проблемы возникают, когда мнения экспертов и алгоритмов расходятся.
Женский палец касается футуристического дисплея. Концепция искусственного интеллекта и науки о технологиях. Фотография: Франческо Карта/ Getty ImagesСохранить Сохранить
Один из пользователей Reddit пять лет страдал от болезненного щёлканья челюстью, вызванного травмой, полученной в боксе. Он обращался к специалистам, делал МРТ, но никто не мог предложить ему решение, пока он не описал проблему в ChatGPT. Чат-бот с искусственным интеллектом предположил, что проблема может быть связана с определённым нарушением положения челюсти, и предложил метод лечения, включающий изменение положения языка. Пользователь попробовал его, и щёлканье прекратилось. «После пяти лет жизни с этим, — написал он на Reddit в апреле, — этот ИИ помог мне решить проблему за минуту».
История стала вирусной, и соучредитель LinkedIn Рид Хоффман поделился ею в X. И это не единичный случай: подобные истории заполонили социальные сети — о пациентах, которые якобы получают от докторов права точные оценки своих МРТ-сканирований или рентгеновских снимков.
У сына Кортни Хофманн редкое неврологическое заболевание. После 17 визитов к врачу за три года, которые так и не были поставлены, она передала все его медицинские документы, снимки и записи в ChatGPT. Это дало ей ответ: синдром фиксированного спинного мозга, при котором спинной мозг не может свободно двигаться, поскольку он прикреплен к тканям вокруг позвоночника, — который, по ее словам, врачи, лечившие ее сына, упустили из виду. «Его прооперировали через шесть недель после того, как я начала использовать ChatGPT, и теперь он совсем новый», — рассказала она в подкасте New England Journal of Medicine в ноябре 2024 года.
Инструменты искусственного интеллекта, ориентированные на потребителя, меняют способы обращения за медицинской помощью, как по симптомам, так и по диагнозам. Эпоха «Доктора Google» уступает место эпохе «Доктора ChatGPT». Медицинские вузы, врачи, пациентские группы и создатели чат-ботов стремятся наверстать упущенное, пытаясь определить, насколько точны медицинские ответы этих LLM, как пациентам и врачам лучше всего их использовать и как обращаться с пациентами, которым предоставлена ложная информация.
«Я абсолютно уверен, что это улучшит качество медицинского обслуживания пациентов», — говорит Адам Родман, преподаватель Гарвардской медицинской школы и практикующий врач. «Можно представить множество способов общения с магистрами права, которые могут быть связаны с их собственными медицинскими картами».
Родман уже видел, как пациенты обращались к чат-ботам с искусственным интеллектом во время своих обходов в больнице. Во время недавней смены он обслуживал более десятка пациентов, когда одна женщина, устав от долгого ожидания, сделала скриншот своей медицинской карты и загрузила его в чат-бот с искусственным интеллектом. «Она сказала: „Я уже спрашивала ChatGPT“», — говорит Родман, и тот дал ей правильный ответ относительно её заболевания — заболевания крови.
Родмана этот обмен мнениями не смутил. Будучи одним из первых, кто внедрил эту технологию и руководителем группы, курирующей применение генеративного ИИ в учебной программе Гарвардской медицинской школы, он считает, что ИИ может предоставить врачам и пациентам более подробную информацию и улучшить их взаимодействие. «Я рассматриваю это как ещё один шанс поговорить с пациентом о том, что его беспокоит», — говорит он.
Ключевое слово здесь — потенциал. Несколько исследований показали, что ИИ способен в определённых обстоятельствах предоставлять точные медицинские консультации и ставить диагнозы, но именно когда эти инструменты попадают в руки людей — будь то врачи или пациенты, — точность часто падает. Пользователи могут совершать ошибки, например, не сообщать ИИ все свои симптомы или отбрасывать верную информацию при её получении.
В одном из примеров исследователи предоставили врачам набор историй болезни пациентов и попросили их оценить вероятность наличия у них различных заболеваний — сначала на основе симптомов и истории болезни пациентов, а затем после ознакомления с результатами лабораторных исследований. Одна группа имела доступ к помощи ИИ, а другая — нет. Обе группы показали схожие результаты по диагностическому обоснованию, которое учитывает не только точность диагноза, но и то, как они объясняли свои рассуждения, рассматривали альтернативы и предлагали дальнейшие шаги. Группа, работавшая с ИИ, имела медианный балл диагностического обоснования 76%, в то время как группа, использовавшая только стандартные ресурсы, набрала 74%. Но когда ИИ тестировался отдельно, без какого-либо участия человека, он показал гораздо более высокий средний балл — 92%.
Родман из Гарварда, работавший над этим исследованием, отмечает, что в 2023 году, когда оно проводилось, чат-боты на основе искусственного интеллекта были ещё относительно новинкой, поэтому незнание этих инструментов врачами, возможно, снижало их способность ставить точный диагноз. Однако, помимо этого, более широкий вывод заключался в том, что врачи по-прежнему считали себя основным фильтром информации. «Им нравилось, когда система совпадала с их мнением, и они игнорировали, когда она противоречила им», — говорит он. «Они не доверяли машине, когда та говорила им, что они ошибаются».
Родман сам несколько лет назад тестировал ИИ на сложном случае, когда он и другие специалисты неправильно диагностировали пациента при первом же обращении. Он предоставил инструменту имеющуюся у него информацию о пациенте, «и первым делом он выдал ему очень редкое заболевание», — говорит он. ИИ также предложил более распространённое заболевание в качестве альтернативного диагноза, но посчитал его менее вероятным. Именно это состояние Родман и специалисты изначально неправильно диагностировали у пациента.
Другое предварительное исследование с участием более 1200 человек показало, что ИИ самостоятельно ставил правильный диагноз почти в 95 процентах случаев, но этот показатель снижался до одной трети, когда люди использовали те же инструменты для направления своего собственного мышления.
Например, один из сценариев исследования включал внезапную головную боль и скованность шеи. Правильным решением было бы немедленно обратиться за медицинской помощью при потенциально серьёзном заболевании, таком как менингит или кровоизлияние в мозг. Некоторые пользователи смогли с помощью ИИ найти правильный ответ, но другим было сказано просто принять безрецептурное обезболивающее и лечь в тёмную комнату. Исследование показало, что ключевое различие в ответах ИИ заключалось в предоставленной информации: неверный ответ генерировался, когда пользователь не упоминал о внезапном появлении симптомов.
Но независимо от того, верна ли предоставленная информация или нет, ИИ уверенно представляет свои ответы, как правдивые, даже если этот ответ может быть совершенно неверным — и это проблема, говорит Алан Форстер, врач и профессор инноваций медицинского факультета Университета Макгилла. В отличие от интернет-поиска, который возвращает список веб-сайтов и ссылок для перехода по ссылке, чат-боты ИИ пишут прозой. «В структурированном виде текст кажется более убедительным», — говорит Форестер. «Он очень хорошо структурирован и каким-то образом кажется немного более реальным».
И даже если это верно, ИИ-агент не может дополнить предоставляемую им информацию знаниями, полученными врачами с опытом, говорит врач-репродуктолог Джейми Кнопман. Когда пациенты её клиники в Мидтауне на Манхэттене передают ей информацию от ИИ-чатботов, она не обязательно неверна, но рекомендации магистра права могут быть не лучшим подходом для конкретного случая пациента.
Например, при рассмотрении возможности ЭКО пары будут получать оценки жизнеспособности своих эмбрионов. Но, по словам Кнопман, обращение к ChatGPT с просьбой предоставить рекомендации о дальнейших шагах, основанные только на этих оценках, не учитывает другие важные факторы. «Дело не только в оценке: есть и другие факторы», например, когда была проведена биопсия эмбриона, состояние слизистой оболочки матки пациентки и наличие успешных попыток зачатия в прошлом. Помимо многолетнего опыта и медицинского образования, Кнопман утверждает, что «помогла тысячам и тысячам женщин». Это, по её словам, даёт ей реальное представление о том, какие дальнейшие шаги следует предпринять, чего не хватает магистрам права.
По словам Кнопман, другие пациенты будут приходить к нам с твёрдым намерением провести перенос эмбриона, основываясь на ответе, полученном от ИИ. Однако, хотя предложенный им метод может быть распространённым, другие варианты действий могут быть более подходящими для конкретных обстоятельств пациента, добавляет она. «Есть наука, которую мы изучаем и учимся применять, но есть и искусство, позволяющее понять, почему один метод лечения или протокол лучше для пациента, чем другой», — говорит она.
Некоторые компании, стоящие за этими чат-ботами на основе ИИ, разрабатывают инструменты для решения проблем, связанных с выдачей медицинской информации. OpenAI, материнская компания ChatGPT, объявила 12 мая о запуске HealthBench, системы, предназначенной для оценки возможностей ИИ в реагировании на вопросы о здоровье. OpenAI заявляет, что программа была создана при участии более 260 врачей из 60 стран и включает в себя 5000 смоделированных медицинских разговоров между пользователями и моделями ИИ, а также руководство по оценке ответов, разработанное врачами. Компания заявляет, что обнаружила, что с более ранними версиями своих моделей ИИ врачи могли бы улучшить ответы, генерируемые чат-ботом, но утверждает, что последние модели, доступные по состоянию на апрель 2025 года, такие как GPT-4.1, были такими же хорошими или даже лучше, чем ответы врачей-людей.
«Наши результаты показывают, что большие языковые модели значительно улучшились со временем и уже превосходят экспертов в написании ответов на примеры, протестированные в нашем бенчмарке», — говорится на сайте Open AI. «Тем не менее, даже самые продвинутые системы всё ещё имеют значительный потенциал для совершенствования, особенно в поиске необходимого контекста для недостаточно определённых запросов и обеспечении надёжности в худших случаях».
Другие компании разрабатывают специализированные медицинские инструменты, предназначенные специально для медицинских работников. Microsoft заявляет о создании новой системы искусственного интеллекта MAI Diagnostic Orchestrator (MAI-DxO), которая при тестировании ставит диагнозы пациентам в четыре раза точнее, чем врачи-люди. Система работает, обращаясь к нескольким ведущим крупным языковым моделям, включая GPT от OpenAI, Gemini от Google, Claude от Anthropic, Llama от Meta и Grok от xAI, что в некоторой степени имитирует совместную работу нескольких экспертов.
По словам Бернарда С. Чанга, декана медицинского факультета Гарвардской медицинской школы, новым врачам необходимо будет научиться не только использовать эти инструменты ИИ, но и консультировать пациентов, которые ими пользуются. Именно поэтому его университет одним из первых предложил студентам курсы по использованию этих технологий в своей практике. «Это одно из самых интересных событий, происходящих сейчас в медицинском образовании», — говорит Чанг.
Эта ситуация напоминает Чангу о том, как 20 лет назад люди начали искать медицинскую информацию в интернете. Пациенты приходили к нему и говорили: «Надеюсь, вы не из тех врачей, которые пользуются Google». Но по мере того, как поисковая система стала повсеместной, он хотел ответить этим пациентам: «Вы бы не захотели идти к врачу, который им не пользуется». Он видит, что то же самое происходит сейчас с искусственным интеллектом. «Какой врач, находящийся на переднем крае медицины, не использует этот мощный инструмент?»
Источник: www.wired.com



























