ChatGPT Health гарантирует конфиденциальность. Всё, что у вас есть, — это слово OpenAI.
Роберт Харт, репортер AI
Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице вашего сайта.
Все работы Роберта Харта
Изображение: Кэт Вирджиния / The Verge, Getty Images, Роберт Харт
Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице вашего сайта.
Все работы Роберта Харта
Он — лондонский репортер издания The Verge, освещающий все вопросы, связанные с искусственным интеллектом, и старший научный сотрудник Фонда Тарбелла. Ранее он писал о здравоохранении, науке и технологиях для Forbes.
По данным OpenAI, каждую неделю более 230 миллионов человек обращаются в ChatGPT за советами по здоровью и благополучию. Компания утверждает, что многие видят в чат-боте «союзника», помогающего разобраться в сложностях страхования, заполнить документы и стать более ответственным в отстаивании своих интересов. Взамен компания надеется, что вы доверите чат-боту информацию о своих диагнозах, лекарствах, результатах анализов и другой конфиденциальной медицинской информации. Но хотя общение с чат-ботом может начать напоминать визит к врачу, это не так. Технологические компании не несут тех же обязательств, что и медицинские учреждения. Эксперты говорят The Verge, что стоит тщательно обдумать, хотите ли вы передавать свои медицинские записи.
Здоровье и благополучие быстро становятся ключевым полем битвы для лабораторий искусственного интеллекта и серьезным испытанием того, насколько пользователи готовы принять эти системы в свою жизнь. В этом месяце два крупнейших игрока отрасли открыто заявили о своем выходе на медицинский рынок. OpenAI выпустила ChatGPT Health, специальную вкладку в ChatGPT, предназначенную для того, чтобы пользователи могли задавать вопросы, связанные со здоровьем, в более безопасной и персонализированной среде. Anthropic представила Claude for Healthcare, продукт, «соответствующий требованиям HIPAA», который, по ее словам, может использоваться больницами, медицинскими учреждениями и потребителями. (Примечательно, что отсутствует Google, чей чат-бот Gemini является одним из самых компетентных и широко используемых инструментов ИИ в мире, хотя компания и объявила об обновлении своей медицинской модели ИИ MedGemma для разработчиков.)
OpenAI активно поощряет пользователей делиться конфиденциальной информацией, такой как медицинские записи, результаты анализов и данные о здоровье и самочувствии из таких приложений, как Apple Health, Peloton, Weight Watchers и MyFitnessPal, с ChatGPT Health в обмен на более глубокий анализ. Компания прямо заявляет, что данные о здоровье пользователей будут храниться в тайне и не будут использоваться для обучения моделей ИИ, а также что были предприняты шаги для обеспечения безопасности и конфиденциальности данных. OpenAI также сообщает, что общение в ChatGPT Health будет проходить в отдельном разделе приложения, где пользователи смогут в любое время просматривать или удалять «воспоминания» о здоровье.
Заверения OpenAI о защите конфиденциальных данных пользователей во многом подкрепляются тем, что компания выпустила практически одновременно с ChatGPT Health продукт с идентичным названием и более строгими протоколами безопасности. Инструмент, получивший название ChatGPT for Healthcare, является частью более широкого спектра продуктов, предназначенных для поддержки предприятий, больниц и врачей, работающих непосредственно с пациентами. OpenAI предлагает такие варианты использования, как оптимизация административной работы, например, составление клинических заключений и выписных эпикризов, а также помощь врачам в сборе последних медицинских данных для улучшения качества медицинской помощи. Как и в других корпоративных продуктах компании, здесь предусмотрена более высокая степень защиты, чем для обычных потребителей, особенно для бесплатных пользователей, и OpenAI заявляет, что продукты разработаны в соответствии с требованиями конфиденциальности, предъявляемыми к медицинскому сектору. Учитывая схожие названия и даты запуска — ChatGPT for Healthcare был анонсирован на следующий день после ChatGPT Health — легко перепутать эти два продукта и предположить, что потребительский продукт имеет тот же уровень защиты, что и более ориентированный на клиническую практику. Многие из тех, с кем я общался при подготовке этого материала, поступили именно так.
Даже если вы доверяете обещанию компании защитить ваши данные… она вполне может передумать.
Однако, какие бы гарантии безопасности мы ни выбрали, они далеко не безупречны. Пользователи таких инструментов, как ChatGPT Health, часто имеют очень слабую защиту от утечек данных или несанкционированного использования, помимо того, что указано в условиях использования и политике конфиденциальности, говорят эксперты изданию The Verge. Поскольку большинство штатов не приняли всеобъемлющих законов о конфиденциальности — и нет всеобъемлющего федерального закона о конфиденциальности — защита данных для инструментов искусственного интеллекта, таких как ChatGPT Health, «в значительной степени зависит от того, что компании обещают в своих политиках конфиденциальности и условиях использования», — говорит Сара Герке, профессор права в Университете Иллинойса в Урбана-Шампейн.
Даже если вы доверяете обещанию компании защитить ваши данные — OpenAI утверждает, что по умолчанию шифрует данные о здоровье — она может просто передумать. «Хотя ChatGPT и заявляет в своих текущих условиях использования, что они будут хранить эти данные в тайне и не использовать их для обучения своих моделей, вы не защищены законом, и условия использования могут меняться со временем», — объясняет Ханна ван Кольфсхоотен, исследователь в области цифрового здравоохранения в Базельском университете в Швейцарии. «Вам придется поверить, что ChatGPT этого не делает». Кармель Шахар, доцент кафедры клинического права в Гарвардской школе права, соглашается: «Защита очень ограничена. Часть — это их слово, но они всегда могут вернуться назад и изменить свою политику конфиденциальности».
По словам Шахар, заверения о том, что продукт соответствует законам о защите данных, регулирующим сектор здравоохранения, таким как Закон о переносимости и подотчетности медицинского страхования (HIPAA), тоже не должны внушать особого доверия. Хотя это и хороший ориентир, на самом деле мало что стоит на кону, если компания, добровольно соблюдающая требования, этого не делает, объясняет она. Добровольное соблюдение не равносильно обязательству. «Ценность HIPAA в том, что если вы допустите ошибку, последует принудительное исполнение».
Неслучайно медицина — это область, строго регулируемая государством.
Речь идёт не только о конфиденциальности. Медицина — это область, строго регулируемая не просто так: ошибки могут быть опасными, даже смертельными. Существует множество примеров, когда чат-боты уверенно распространяют ложную или вводящую в заблуждение информацию о здоровье, например, когда у мужчины развилось редкое заболевание после того, как он спросил ChatGPT об исключении соли из своего рациона, и чат-бот предложил заменить соль бромидом натрия, который исторически использовался в качестве успокоительного средства. Или когда чат-бот Google AI Overviews ошибочно посоветовал людям с раком поджелудочной железы избегать продуктов с высоким содержанием жира — прямо противоположное тому, что им следовало бы делать.
Чтобы решить эту проблему, OpenAI прямо заявляет, что их инструмент для потребителей предназначен для использования в тесном сотрудничестве с врачами и не предназначен для диагностики и лечения. Инструменты, предназначенные для диагностики и лечения, классифицируются как медицинские устройства и подлежат гораздо более строгим правилам, таким как клинические испытания, подтверждающие их эффективность, и мониторинг безопасности после внедрения. Хотя OpenAI полностью и открыто осознает, что одним из основных вариантов использования ChatGPT является поддержка здоровья и благополучия пользователей — вспомним 230 миллионов человек, обращающихся за советом каждую неделю, — утверждение компании о том, что она не предназначена в качестве медицинского устройства, имеет большой вес для регулирующих органов, объясняет Герке. «Заявленное производителем предполагаемое использование является ключевым фактором в классификации медицинских устройств», — говорит она, имея в виду, что компании, которые заявляют, что инструменты не предназначены для медицинского использования, в значительной степени избегут надзора, даже если их продукция используется в медицинских целях. Это подчеркивает проблемы регулирования, которые создают такие технологии, как чат-боты.
По крайней мере, на данный момент это предупреждение не позволяет ChatGPT Health попасть под юрисдикцию регулирующих органов, таких как Управление по санитарному надзору за качеством пищевых продуктов и медикаментов (FDA), но ван Кольфсхоотен говорит, что вполне разумно задаться вопросом, следует ли подобные инструменты действительно классифицировать как медицинское устройство и регулировать соответствующим образом. Важно учитывать не только то, что заявляет компания, но и то, как используется устройство, объясняет она. При анонсе продукта OpenAI предположила, что люди могут использовать ChatGPT Health для интерпретации результатов лабораторных анализов, отслеживания поведения в отношении здоровья или принятия решений о лечении. Если продукт делает это, можно с полным основанием утверждать, что он может подпадать под определение медицинского устройства в США, говорит она, предполагая, что более строгая европейская нормативно-правовая база может быть причиной того, почему он пока недоступен в регионе.
«Когда система воспринимается как персонализированная и обладает аурой авторитета, медицинские оговорки не обязательно подорвут доверие людей к этой системе».
Несмотря на заявления о том, что ChatGPT не предназначен для диагностики или лечения, OpenAI приложила немало усилий, чтобы доказать, что ChatGPT — довольно функциональный медицинский инструмент, и побудить пользователей использовать его для решения медицинских вопросов. Компания подчеркнула здравоохранение как один из основных вариантов применения при запуске GPT-5, а генеральный директор Сэм Альтман даже пригласил на сцену пациентку с раком и ее мужа, чтобы обсудить, как инструмент помог ей разобраться в диагнозе. Компания заявляет, что оценивает медицинские возможности ChatGPT по разработанному ею самим эталону HealthBench, в котором приняли участие более 260 врачей различных специальностей. Этот эталон «проверяет, насколько хорошо модели ИИ работают в реалистичных медицинских сценариях», хотя критики отмечают его недостаточную прозрачность. Другие исследования — часто небольшие, ограниченные или проводимые самой компанией — также намекают на медицинский потенциал ChatGPT, показывая, что в некоторых случаях он может сдавать экзамены на получение медицинской лицензии, лучше общаться с пациентами и превосходить врачей в диагностике заболеваний, а также помогать врачам совершать меньше ошибок при использовании в качестве инструмента.
Ван Кольфсхоотен отмечает, что попытки OpenAI представить ChatGPT Health как авторитетный источник медицинской информации могут также подорвать любые предупреждения, запрещающие пользователям использовать его в медицинских целях. «Когда система воспринимается как персонализированная и обладает аурой авторитета, медицинские предупреждения не обязательно подорвут доверие людей к системе».
Такие компании, как OpenAI и Anthropic, надеются завоевать это доверие, борясь за лидерство на рынке, который они считают следующим крупным рынком для ИИ. Данные о том, сколько людей уже используют чат-боты на основе ИИ в сфере здравоохранения, позволяют предположить, что они на верном пути, и, учитывая вопиющее неравенство в здравоохранении и трудности, с которыми многие сталкиваются при доступе даже к базовой медицинской помощи, это может быть хорошо. По крайней мере, так может быть, если это доверие оправдано. Мы доверяем свою личную информацию медицинским работникам, потому что эта профессия заслужила это доверие. Пока неясно, заслужила ли такое же доверие отрасль, известная своей быстротой и склонностью к экспериментам.
Подпишитесь на обновления по темам и авторам этой статьи, чтобы видеть больше подобных материалов в своей персонализированной ленте новостей и получать уведомления по электронной почте.
- ИИ
Сообщения по этой теме будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице.
Посмотреть все ИИ
- Здоровье
Сообщения по этой теме будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице.
Посмотреть все разделы о здоровье
- OpenAI
Сообщения по этой теме будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице.
Посмотреть все материалы OpenAI
- Отчет
Сообщения по этой теме будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице.
Посмотреть все отчеты
- Наука
Сообщения по этой теме будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице.
См. все научные статьи
Самые популярные
Самые популярные
- Масштабная кампания по борьбе с электровелосипедами началась.
- Неважно, был ли у Алекса Претти пистолет или нет.
- Почему никто не хочет помешать сотрудникам ICE носить маски?
- Компания Microsoft передала правительству ключи шифрования для данных клиентов.
- Доверить свой телефон мобильному контроллеру Abxylute — это большой акт веры.
The Verge Daily
Бесплатный ежедневный дайджест самых важных новостей.
Адрес электронной почты (обязательно) Отправляя свой адрес электронной почты, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности. Этот сайт защищен системой reCAPTCHA, и на него распространяются Политика конфиденциальности и Условия использования Google. Контент рекламодателя 
Это заголовок для нативной рекламы.

Источник: www.theverge.com


Роберт Харт, репортер AI




















