Пока это не проблема, но изображения, созданные с помощью ИИ, могут нанести вред пациентам и подорвать доверие к медицине.

Изображения, созданные с помощью технологии Deepfake, могут вводить зрителей в заблуждение, срывать выборы и провоцировать насилие. Кроме того, по словам исследователей, они могут нарушать оказание медицинской помощи.
В исследовании, опубликованном во вторник в журнале Radiology, международная группа исследователей проверила, могут ли 17 рентгенологов отличить настоящие рентгеновские снимки от снимков, сгенерированных ChatGPT. Только 41% заметили отклонения, когда их первоначально попросили поставить диагноз пациентам на основе синтетических изображений. Даже зная, на что обращать внимание при обнаружении поддельных рентгеновских снимков, они смогли точно отличить их только в 75% случаев.
Реклама
Эти изображения несложно сгенерировать: исследователи использовали простые подсказки, чтобы заставить ChatGPT выдавать рентгеновские снимки с указанным анатомическим расположением, заболеванием и уровнем шума. Но, несмотря на то, что моделям легко создавать убедительные рентгеновские снимки, они не могут надежно их обнаружить. Четыре мультимодальные модели, включая ту, которая сгенерировала изображения, точно различали дипфейки лишь в 57–85% случаев.
Источник: www.statnews.com























