
OpenAI запустила ChatGPT Health — отдельную вкладку в чат-боте для подключения медицинских карт и фитнес-приложений. Звучит удобно, но эксперты бьют тревогу: ИИ, который умеет придумывать несуществующие факты, теперь получит доступ к вашим самым личным данным.
Что такое ChatGPT Health и как это работает
7 января 2026 года OpenAI анонсировала новый продукт — выделенное пространство внутри ChatGPT для работы с медицинской информацией. Пользователи смогут подключить электронные медицинские карты, Apple Health, MyFitnessPal, Peloton, Weight Watchers и даже сервис доставки продуктов Instacart.
По задумке, ChatGPT Health поможет разобраться в результатах анализов, подготовиться к визиту к врачу, подобрать диету на основе ваших данных или понять, какая страховка выгоднее с учётом истории обращений. Звучит как мечта — особенно для тех, кто живёт далеко от хороших клиник или не может позволить себе частые консультации.
OpenAI утверждает, что над продуктом два года работали более 260 врачей из 60 стран. Техническую инфраструктуру для подключения медицинских записей обеспечивает компания b.well.
Масштаб явления: миллионы уже спрашивают ChatGPT о здоровье
Запуск ChatGPT Health — не прихоть, а ответ на реальный спрос. По данным OpenAI, более 40 миллионов человек ежедневно задают чат-боту вопросы о здоровье. Каждую неделю — более 230 миллионов.
Люди уже загружают результаты анализов крови, снимки МРТ, спрашивают о симптомах и пытаются разобраться в медицинской терминологии. ChatGPT Health просто формализует то, что происходит стихийно.
Фиджи Симо, генеральный директор по приложениям OpenAI, на презентации рассказала личную историю. В прошлом году она попала в больницу с камнем в почке и инфекцией. Дежурный врач назначил стандартный антибиотик, но Симо проверила назначение через ChatGPT — и система предупредила, что этот препарат может реактивировать серьёзную инфекцию из её прошлого. Врач поблагодарила за бдительность и призналась, что на обход каждого пациента у неё всего несколько минут.
Проблема галлюцинаций: когда ИИ уверенно врёт
Главная проблема любого чат-бота на больших языковых моделях — галлюцинации. Это ситуации, когда ИИ генерирует правдоподобный, но полностью выдуманный ответ. В обычном разговоре это раздражает, в медицине — может убить.
Исследование Университета Массачусетса и стартапа Mendel показало: при создании медицинских резюме модели GPT-4o и Llama-3 допускали ошибки в 38–42% случаев — либо искажали информацию, либо делали слишком общие выводы.
Другое исследование выявило, что система транскрипции Whisper от OpenAI придумывала целые фразы в 1,4% записей. В некоторых случаях — выдумывала названия несуществующих препаратов или вставляла совершенно посторонние реплики в расшифровки медицинских консультаций.
Доктор Джей Андерс, главный медицинский директор Medicomp Systems, формулирует проблему так: даже если ИИ прав в 80% случаев, оставшиеся 20% — это провал. В медицине не бывает оценки «четыре с минусом». Если система ошибочно запишет в вашу карту несуществующий диагноз — например, припишет вам болезнь матери — это может аукнуться при оформлении страховки или трудоустройстве.
Приватность: HIPAA не защитит
Когда вы делитесь медицинскими данными с врачом или страховой, информация защищена законом HIPAA. Когда загружаете те же данные в ChatGPT — нет.
OpenAI обещает, что данные в ChatGPT Health шифруются, хранятся отдельно от обычных чатов и не используются для обучения базовых моделей. Но юристы обращают внимание на формулировку: «по умолчанию» данные не используются для обучения. Это оставляет лазейку на будущее.
Сара Геоган из Центра электронной приватности (EPIC) предупреждает: OpenAI связана только собственными правилами, которые может изменить в любой момент. В США нет федерального закона о защите персональных данных, сопоставимого с европейским GDPR.
Характерно, что ChatGPT Health недоступен в Евросоюзе, Швейцарии и Великобритании — там, где законы о защите данных строже.
Есть ещё один неприятный нюанс. В ходе судебных разбирательств по авторским правам новостные организации уже получили доступ к миллионам логов ChatGPT — включая чаты, которые пользователи считали удалёнными. Медицинские данные могут быть истребованы по повестке суда или запросу государственных органов.
Сэм Альтман, CEO OpenAI, уже призывал к созданию юридической защиты для медицинской информации в ИИ-системах. Пока такой защиты нет.
Кому это нужно и кому это опасно
Врачи и аналитики признают: ChatGPT Health отвечает на реальную боль. Медицинская система перегружена, у врачей на приёме — считанные минуты на пациента. Информация разбросана по разным порталам, приложениям и бумажным выпискам. ИИ-ассистент, который сведёт всё воедино и объяснит человеческим языком — звучит как спасение.
Но есть категории людей, которым стоит быть особенно осторожными. Репродуктивное здоровье, гендерно-аффирмативная помощь, психиатрические диагнозы, история зависимостей — всё это чувствительная информация, которая может быть использована против человека в определённых юрисдикциях.
Доктор Адам Родман из Гарварда советует пациентам избегать вопросов, требующих принятия решений: не просить ИИ выбрать лечение или поставить диагноз. Но задать вопросы про диету, разобраться в данных фитнес-трекера или попросить объяснить медицинский термин — вполне допустимо.
От редакции
Запуск ChatGPT Health — закономерный шаг в развитии ИИ-индустрии. OpenAI формализует и монетизирует то, что миллионы людей уже делают стихийно. Вопрос в том, готова ли технология к такой ответственности.
Мы наблюдаем классическую ситуацию, когда технологические возможности опережают регулирование. ИИ-компании движутся быстро, законодатели — медленно. Пока нет ни чётких стандартов, ни ответственности за ошибки, ни независимого надзора.
Практический вывод для читателей: используйте ChatGPT для образовательных целей, но не доверяйте ему принятие медицинских решений. Если загружаете данные — осознавайте риски. И помните: удобство — не синоним безопасности. То, что технология умеет делать, не означает, что ей стоит это доверять.
Самое разумное — относиться к ChatGPT Health как к умному помощнику, который может ошибаться, а не как к замене врача. И очень внимательно читать пользовательские соглашения — особенно ту часть, где написано мелким шрифтом.
Комментарии0 / 2500Напишите что-нибудь — ваш комментарий станет первым
Источник: vc.ru























