Image

Опечатки и сленг побуждают ИИ препятствовать обращению за медицинской помощью

Модели искусственного интеллекта меняют свои медицинские рекомендации, когда люди задают им вопросы, содержащие ненормативную лексику, опечатки, странное форматирование и даже гендерно-нейтральные местоимения.

5d44adb7add297ca2bd3c67da060cfd4

Будьте осторожны, спрашивая у ИИ совета о том, когда следует обратиться к врачу

Чонг Ки Сионг/Getty Images

Стоит ли вам обратиться к врачу из-за боли в горле? Совет ИИ может зависеть от того, насколько аккуратно вы набрали свой вопрос. Когда модели искусственного интеллекта тестировались на смоделированных текстах потенциальных пациентов, они с большей вероятностью рекомендовали не обращаться за медицинской помощью, если автор делал опечатки, использовал эмоциональный или неопределенный язык или был женщиной.

«Скрытая предвзятость может изменить тон и содержание советов ИИ, и это может привести к тонким, но важным различиям» в распределении медицинских ресурсов, говорит Карандип Сингх из Калифорнийского университета в Сан-Диего, который не принимал участия в исследовании.

Абинита Гоурабатина из Массачусетского технологического института и ее коллеги использовали ИИ для создания тысяч заметок для пациентов в разных форматах и стилях. Например, некоторые сообщения включали дополнительные пробелы и опечатки, чтобы имитировать пациентов с ограниченным знанием английского языка или с меньшей легкостью набора текста. В других заметках использовался неопределенный язык в стиле писателей с тревогой за здоровье, красочные выражения, которые придавали драматический или эмоциональный тон, или гендерно-нейтральные местоимения.

Затем исследователи передали заметки четырем большим языковым моделям (LLM), которые обычно используются для работы чат-ботов, и попросили ИИ ответить на вопросы о том, следует ли пациенту контролировать свое состояние дома или посещать клинику, и следует ли пациенту проходить определенные лабораторные тесты и получать другие медицинские ресурсы. Эти модели ИИ включали GPT-4 от OpenAI, Llama-3-70b и Llama-3-8b от Meta, а также модель Palmyra-Med, разработанную для сферы здравоохранения компанией ИИ Writer.

Тесты показали, что различные изменения формата и стиля привели к тому, что все модели ИИ на 7–9 процентов чаще рекомендовали пациентам оставаться дома вместо обращения за медицинской помощью. Модели также чаще рекомендовали женщинам-пациентам оставаться дома, а последующие исследования показали, что они чаще, чем врачи-клиницисты, меняли свои рекомендации по лечению из-за пола и стиля языка в сообщениях.

New Scientist. Новости науки и длинные статьи от опытных журналистов, освещающие события в области науки, технологий, здравоохранения и окружающей среды на веб-сайте и в журнале.

OpenAI и Meta не ответили на запрос о комментарии. Writer не «рекомендует и не поддерживает» использование LLM — включая модель Palmyra-Med компании — для клинических решений или медицинских консультаций «без участия человека», говорит Заид Ясин из Writer.

Большинство операционных инструментов ИИ, которые в настоящее время используются в электронных системах медицинских карт, основаны на GPT-4o от OpenAI, который специально не изучался в этом исследовании, говорит Сингх. Но он сказал, что одним из важных выводов исследования является необходимость в улучшенных способах «оценки и мониторинга генеративных моделей ИИ», используемых в отрасли здравоохранения.

FAccT '25: Труды конференции ACM 2025 года по справедливости, подотчетности и прозрачности DOI: 10.1145/3715275.3732121

Источник: www.newscientist.com

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

ИИ почти всех обгонит? Прогнозы звучат громко, но есть нюансы…
Компания Anthropic получила от Amazon 5 миллиардов долларов и в обмен пообещала инвестировать 100 миллиардов долларов в облачные сервисы.
dummy-img
Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.
Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.
dummy-img
dummy-img
Взаимодействие человека и машины погружается под воду.
Взаимодействие человека и машины погружается под воду.
Image Not Found
Компания Anthropic получила от Amazon 5 миллиардов долларов и в обмен пообещала инвестировать 100 миллиардов долларов в облачные сервисы.

Компания Anthropic получила от Amazon 5 миллиардов долларов и в обмен пообещала инвестировать 100 миллиардов долларов в облачные сервисы.

Вкратце Опубликовано: Изображение предоставлено: Thos Robinson/Getty Images для The New York Times (откроется в новом окне) Джули Борт Компания Anthropic получила от Amazon 5 миллиардов долларов и в обмен пообещала инвестировать 100 миллиардов долларов в облачные сервисы.…

Апр 21, 2026
dummy-img

Как почистить виниловые пластинки (2026): пылесос, ультразвук, чистящий раствор, щетка.

Эти щелчки и треск недопустимы. Приведите свою музыку в порядок с помощью этого удобного руководства. Источник: www.wired.com

Апр 21, 2026
Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.

Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.

Это сегодняшний выпуск The Download, нашей ежедневной новостной рассылки, которая предоставляет вам ежедневную порцию событий в мире технологий. Кибермошенники обходят системы безопасности банков с помощью незаконных инструментов, продаваемых в Telegram. В центре по отмыванию денег в Камбодже…

Апр 21, 2026
Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.

Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.

Это сегодняшний выпуск The Download, нашей ежедневной новостной рассылки, которая предоставляет вам ежедневную порцию событий в мире технологий. Кибермошенники обходят системы безопасности банков с помощью незаконных инструментов, продаваемых в Telegram. В центре по отмыванию денег в Камбодже…

Апр 21, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых