Иллюстрация задумчивого робота с низким уровнем уверенности, окруженного знаками вопроса.

Как создать «скромный» ИИ

Группа исследователей под руководством Массачусетского технологического института разрабатывает системы искусственного интеллекта для медицинской диагностики, которые будут более склонны к сотрудничеству и более открыто сообщать о неопределенности. Мыслящий робот с расположенным над головой измерителем «уверенности». «Мы пытаемся включить людей в эти человеко-ИИ системы, чтобы дать людям возможность коллективно размышлять и переосмысливать, вместо того чтобы иметь изолированных агентов ИИ, которые делают всё. Мы хотим, чтобы люди стали более креативными благодаря использованию ИИ», — говорит Себастьян Андрес Кахас Ордоньес. Изображение: MIT News; iStock

Искусственный интеллект подает большие надежды в оказании помощи врачам в диагностике пациентов и персонализации вариантов лечения. Однако международная группа ученых под руководством Массачусетского технологического института предупреждает, что системы ИИ в их нынешнем виде несут риск направлять врачей в неправильном направлении, поскольку они могут чрезмерно самоуверенно принимать неверные решения.

По мнению исследователей, один из способов предотвратить подобные ошибки — запрограммировать системы искусственного интеллекта на большую «скромность». Такие системы будут сообщать о случаях, когда они не уверены в своих диагнозах или рекомендациях, и будут побуждать пользователей собирать дополнительную информацию, если диагноз вызывает сомнения.

«Сейчас мы используем ИИ как оракула, но мы можем использовать ИИ и как наставника. Мы могли бы использовать ИИ в качестве настоящего второго пилота. Это не только расширит наши возможности по поиску информации, но и повысит нашу способность связывать разрозненные факты воедино», — говорит Лео Энтони Сели, старший научный сотрудник Института медицинской инженерии и науки Массачусетского технологического института, врач Медицинского центра Бет Израэль Диконесс и доцент Гарвардской медицинской школы.

Сели и его коллеги разработали структуру, которая, по их словам, может помочь разработчикам ИИ в проектировании систем, проявляющих любопытство и смирение. Этот новый подход, как утверждают исследователи, позволит врачам и системам ИИ работать в партнерстве и поможет предотвратить чрезмерное влияние ИИ на решения врачей.

Сели является ведущим автором исследования, опубликованного сегодня в журнале BMJ Health and Care Informatics. Ведущим автором статьи является Себастьян Андрес Кахас Ордоньес, исследователь из MIT Critical Data, глобального консорциума, возглавляемого Лабораторией вычислительной физиологии в рамках Института медицинской инженерии и науки MIT.

Привитие человеческих ценностей

По мнению команды из Массачусетского технологического института, чрезмерно самоуверенные системы искусственного интеллекта могут приводить к ошибкам в медицинской практике. Предыдущие исследования показали, что врачи реанимационных отделений склонны доверять системам ИИ, которые они считают надежными, даже когда их собственная интуиция противоречит рекомендациям ИИ. И врачи, и пациенты с большей вероятностью примут неверные рекомендации ИИ, если те воспринимаются как авторитетные.

Вместо систем, дающих чрезмерно самоуверенные, но потенциально неверные рекомендации, медицинским учреждениям следует предоставить доступ к системам искусственного интеллекта, которые более тесно сотрудничают с врачами, считают исследователи.

«Мы пытаемся включить людей в эти человеко-ИИ системы, чтобы дать людям возможность коллективно размышлять и переосмысливать, вместо того чтобы иметь изолированных агентов ИИ, которые делают всё за нас. Мы хотим, чтобы люди стали более креативными благодаря использованию ИИ», — говорит Кахас Ордоньес.

Для создания такой системы консорциум разработал структуру, включающую несколько вычислительных модулей, которые могут быть интегрированы в существующие системы искусственного интеллекта. Первый из этих модулей требует от модели ИИ оценки собственной уверенности при составлении диагностических прогнозов. Разработанный членами консорциума Янаном Арсланом и Куртом Бенке из Мельбурнского университета, показатель эпистемической добродетели (Epistemic Virtue Score) служит проверкой самосознания, гарантируя, что уверенность системы соответствующим образом скорректирована с учетом присущей каждому клиническому сценарию неопределенности и сложности.

Благодаря такому самосознанию модель может адаптировать свой ответ к ситуации. Если система обнаруживает, что ее уверенность превышает то, что подтверждают имеющиеся данные, она может приостановить работу и отметить несоответствие, запросив конкретные анализы или историю болезни, которые могли бы разрешить неопределенность, или порекомендовав консультацию специалиста. Цель состоит в создании ИИ, который не только предоставляет ответы, но и сигнализирует о том, когда к этим ответам следует относиться с осторожностью.

«Это как если бы у вас был второй пилот, который сказал бы вам, что нужно взглянуть на ситуацию свежим взглядом, чтобы лучше понять этого сложного пациента», — говорит Сели.

Ранее Сели и его коллеги разработали крупномасштабные базы данных, которые можно использовать для обучения систем искусственного интеллекта, включая базу данных Medical Information Mart for Intensive Care (MIMIC) от медицинского центра Beth Israel Deaconess. Сейчас его команда работает над внедрением новой структуры в системы искусственного интеллекта на основе MIMIC и знакомит с ней врачей в системе здравоохранения Beth Israel Lahey.

По словам исследователей, такой подход можно также внедрить в системы искусственного интеллекта, используемые для анализа рентгеновских снимков или для определения оптимальных вариантов лечения пациентов в отделении неотложной помощи, и во многих других областях.

На пути к более инклюзивному ИИ

Это исследование является частью более масштабной работы Сели и его коллег по созданию систем искусственного интеллекта, разработанных людьми, которые в конечном итоге больше всего пострадают от этих инструментов, и предназначенных для них. Многие модели ИИ, такие как MIMIC, обучаются на общедоступных данных из США, что может привести к предвзятости в отношении определенного образа мышления по медицинским вопросам и исключению других точек зрения.

По словам Сели, учет различных точек зрения имеет решающее значение для преодоления потенциальных предубеждений, и каждый член глобального консорциума вносит свой уникальный вклад в более широкое коллективное понимание.

Еще одна проблема существующих систем искусственного интеллекта, используемых для диагностики, заключается в том, что они, как правило, обучаются на электронных медицинских картах, которые изначально не предназначались для этой цели. Это означает, что данным не хватает контекста, который был бы полезен для постановки диагнозов и выработки рекомендаций по лечению. Кроме того, многие пациенты никогда не попадают в эти наборы данных из-за отсутствия доступа, например, люди, живущие в сельской местности.

На семинарах по анализу данных, проводимых MIT Critical Data, группы специалистов по анализу данных, медицинских работников, социологов, пациентов и других участников совместно работают над разработкой новых систем искусственного интеллекта. Перед началом работы всем предлагается задуматься о том, охватывают ли используемые данные все факторы, влияющие на прогнозируемое значение, чтобы случайно не закодировать существующие структурные неравенства в своих моделях.

«Мы заставляем их подвергать сомнению набор данных. Уверены ли они в своих обучающих и валидационных данных? Считают ли они, что некоторые пациенты были исключены, непреднамеренно или намеренно, и как это повлияет на саму модель?» — говорит он. «Конечно, мы не можем остановить или даже отсрочить развитие ИИ не только в здравоохранении, но и во всех секторах. Но мы должны быть более обдуманными и взвешенными в том, как мы это делаем».

Исследование было профинансировано в рамках Бостонско-корейского инновационного исследовательского проекта при поддержке Корейского института развития здравоохранения.

Источник: news.mit.edu

✅ Найденные теги: ИИ, Как, новости, Скромный, Создание

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

ideipro logotyp
ideipro logotyp
Графики выживаемости пациентов после хирургии и трансплантации органов.
Volkswagen прекращает производство ID.4 в США, запасы автомобилей сохраняются «до 2027 года».
Современное здание с солнечными панелями, окружённое деревьями на закате.
ideipro logotyp
Большой адронный коллайдер, экспериментальная установка в ЦЕРН, внутренний вид.
ideipro logotyp
Абстрактная визуализация нейронной сети с синими и фиолетовыми узлами на темном фоне.
Image Not Found
ideipro logotyp

Компания Roche делает «рискованный шаг», инвестируя 20 миллионов долларов в разработку антитело-деградаторов белков от компании C4T.

Компания Roche присоединилась к своим конкурентам из числа крупных фармацевтических компаний в развивающейся области конъюгатов антител с деградаторами (DAC), выплатив C4 Therapeutics 20 миллионов долларов авансом и обязавшись выплатить более 1 миллиарда долларов в виде поэтапных выплат…

Апр 11, 2026
ideipro logotyp

STAT+: UnitedHealth Group делает ставку в 3 миллиарда долларов на искусственный интеллект. Что это значит для пациентов?

Искусственный интеллект может изменить то, как принимаются важные решения, касающиеся ухода за пациентами. Просматривая список вакансий, легко можно принять UnitedHealth Group за новейшего гиганта в области искусственного интеллекта из Силиконовой долины. В рамках масштабной кампании по внедрению…

Апр 11, 2026
Графики выживаемости пациентов после хирургии и трансплантации органов.

Неоадъювантная терапия ипилимумабом плюс ниволумаб при меланоме: 5-летняя выживаемость и анализ биомаркеров в рамках 2-й фазы исследования PRADO.

Абстрактный Неоадъювантная терапия ипилимумабом в сочетании с ниволумабом стала стандартной терапией меланомы III стадии на основе исследования NADINA, хотя данные долгосрочных исследований отсутствуют. В когорте PRADO фазы 2 исследования OpACIN-neo 99 пациентов с макроскопической меланомой III стадии…

Апр 11, 2026
Volkswagen прекращает производство ID.4 в США, запасы автомобилей сохраняются «до 2027 года».

Volkswagen прекращает производство ID.4 в США, запасы автомобилей сохраняются «до 2027 года».

Ещё один автопроизводитель отменил выпуск электромобиля для бензиновых внедорожников в Америке. Источник: Volkswagen Настройки текста Текст рассказа Размер Маленький Стандартный Большой Ширина * Стандартный Широкий Ссылки Стандартный Оранжевый * Только для подписчиков Узнать больше Свернуть в навигацию…

Апр 11, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых