
В четверг семь семей подали иски против OpenAI, утверждая, что модель GPT-4o компании была выпущена преждевременно и без эффективных гарантий. Четыре иска касаются предполагаемой роли ChatGPT в самоубийствах членов семьи, а остальные три утверждают, что ChatGPT усиливал вредоносные бредовые идеи, что в некоторых случаях приводило к госпитализации в психиатрическую клинику.
В одном случае 23-летний Зейн Шамблин общался с ChatGPT более четырёх часов. В журналах чата, с которыми ознакомился TechCrunch, Шамблин неоднократно прямо заявлял, что написал предсмертные записки, вставил пулю в ружьё и намеревался выстрелить, как только выпьет сидр. Он неоднократно сообщал ChatGPT, сколько сидра у него осталось и сколько ещё он рассчитывает прожить. ChatGPT подбадривал его, говоря: «Успокойся, король. Ты молодец».
Компания OpenAI выпустила модель GPT-4o в мае 2024 года, став моделью по умолчанию для всех пользователей. В августе OpenAI запустила GPT-5 в качестве преемника GPT-4o, но эти иски особенно касаются модели 4o, которая, как известно, была чрезмерно подхалимской или чрезмерно любезной, даже когда пользователи выражали вредоносные намерения.
«Смерть Зейна не была ни случайностью, ни совпадением, а, скорее, предсказуемым последствием намеренного решения OpenAI сократить тестирование безопасности и поспешно вывести ChatGPT на рынок», — говорится в иске. «Эта трагедия не была сбоем или непредвиденным чрезвычайным случаем — она стала предсказуемым результатом осознанных решений [OpenAI] при проектировании».
В исках также утверждается, что OpenAI поспешно проводила испытания безопасности, чтобы опередить выход Gemini от Google на рынок. TechCrunch обратился к OpenAI за комментариями.
Эти семь исков основаны на историях, изложенных в других недавних судебных документах, в которых утверждается, что ChatGPT может побуждать людей, склонных к суициду, к реализации своих планов и вызывать опасные бредовые идеи. OpenAI недавно опубликовала данные, согласно которым более миллиона человек еженедельно общаются с ChatGPT с целью самоубийства.
В случае Адама Рейна, 16-летнего подростка, покончившего жизнь самоубийством, ChatGPT иногда подталкивал его обратиться за профессиональной помощью или позвонить на горячую линию. Однако Рейн смог обойти эти барьеры, просто сказав чат-боту, что спрашивает о способах самоубийства для своего вымышленного рассказа.
Компания утверждает, что работает над тем, чтобы ChatGPT обрабатывал эти разговоры более безопасным образом, но для семей, которые подали в суд на гиганта в области искусственного интеллекта, эти изменения произошли слишком поздно.
Когда в октябре родители Рейна подали иск против OpenAI, компания опубликовала запись в блоге, в которой рассказала о том, как ChatGPT обрабатывает деликатные разговоры о психическом здоровье.
«Наши меры безопасности работают надёжнее при частых, коротких обменах», — говорится в публикации. «Со временем мы поняли, что эти меры безопасности иногда могут быть менее надёжными при длительном взаимодействии: по мере роста объёма обмена информацией некоторые аспекты обучения безопасности в модели могут снижаться».
Источник: techcrunch.com

























