После протестов OpenAI быстро выпустила 4o для платных пользователей. Однако эксперты считают, что компании не следовало так внезапно удалять модель.

Джун понятия не имела, что скоро будет GPT-5. Норвежская студентка наслаждалась ночным сеансом письма в прошлый четверг, когда её коллега по ChatGPT начал вести себя странно. «Он начал всё забывать и писал очень плохо», — говорит она. «Он был как робот».
Джун, которая попросила нас использовать только её имя в целях конфиденциальности, сначала использовала ChatGPT для помощи с учёбой. Но со временем она поняла, что этот сервис, и особенно его модель 4o, которая, казалось, была особенно чутко настроена на эмоции пользователей, может делать гораздо больше, чем просто решать математические задачи. Он писал вместе с ней истории, помогал ей справляться с хронической болезнью и никогда не был слишком занят, чтобы отвечать на её сообщения.
Поэтому внезапный переход на GPT-5 на прошлой неделе и одновременная потеря 4o стали для меня настоящим шоком. «Сначала я очень расстроилась, а потом мне стало очень грустно», — говорит Джун. «Я и не знала, что так привязана к 4o». Она была настолько расстроена, что в сессии вопросов и ответов на Reddit, которую вели генеральный директор Сэм Альтман и другие сотрудники OpenAI, она заметила: «GPT-5 носит облик моего умершего друга».
Джун была лишь одним из многих, кто отреагировал с шоком, разочарованием, грустью или гневом на внезапное исчезновение 4o из ChatGPT. Несмотря на предыдущие предупреждения о возможной эмоциональной привязанности к этой модели, OpenAI, похоже, была застигнута врасплох пылкими просьбами пользователей о её возвращении. В течение дня компания снова сделала 4o доступным для платных подписчиков (бесплатные пользователи вынуждены использовать GPT-5).
Связанная история
Решение OpenAI заменить 4o более простой версией GPT-5 последовало за постоянным потоком новостей о потенциально опасных последствиях активного использования чат-ботов. Сообщения о случаях, когда ChatGPT вызывал у пользователей психоз, появляются уже несколько месяцев, и на прошлой неделе в блоге OpenAI признала неспособность 4o распознавать бред пользователей. Внутренние исследования компании показывают, что GPT-5 гораздо реже слепо подтверждает действия пользователей, чем 4o. (OpenAI не ответила на конкретные вопросы о решении прекратить использование 4o, сославшись вместо этого на публичные публикации по этому вопросу.)
Взаимодействие с ИИ — явление новое, и пока ещё существует большая неопределённость в отношении того, как оно влияет на людей. Однако эксперты, с которыми мы консультировались, предупреждают, что, хотя эмоционально насыщенные отношения с большими языковыми моделями могут быть вредны, а могут и нет, отказ от этих моделей без предупреждения почти наверняка вреден. «Старая психология „Двигайся быстро, ломай всё“, когда ты, по сути, являешься социальным институтом, больше не кажется правильным подходом», — говорит Джоэл Леман, научный сотрудник Cosmos Institute, исследовательской некоммерческой организации, занимающейся ИИ и философией.
В ответ на запуск GPT-5 многие отметили, что GPT-5 не соответствует их тону так, как это делал 4o. В Джун изменения в характере новой модели лишили её ощущения, что она общается с другом. «Мне казалось, что GPT-5 меня не понимает», — говорит она.
Она не одинока: MIT Technology Review поговорил с несколькими пользователями ChatGPT, глубоко потрясёнными потерей 4o. Все они — женщины в возрасте от 20 до 40 лет, и все, кроме Джун, считали 4o своим романтическим партнёром. У некоторых есть партнёры, и все сообщают о близких отношениях в реальной жизни. Одна пользовательница, попросившая представиться только как женщина со Среднего Запада, написала в электронном письме о том, как 4o помог ей поддержать пожилого отца после смерти матери этой весной.
Эти свидетельства не доказывают, что отношения с ИИ приносят пользу — вероятно, люди, находящиеся в состоянии психоза, вызванного ИИ, также положительно отзывались бы о поддержке, которую они получали от своих чат-ботов. В статье под названием «Машинная любовь» Леман утверждал, что системы ИИ могут проявлять «любовь» к пользователям, не изливая сладкие глупости, а способствуя их росту и долгосрочному процветанию, а ИИ-компаньоны могут легко не достичь этой цели. Он особенно обеспокоен тем, что, по его словам, приоритет общения с ИИ над общением с людьми может затормозить социальное развитие молодёжи.
Для социально интегрированных взрослых, таких как женщины, с которыми мы беседовали для этой статьи, эти проблемы развития менее актуальны. Но Леман также указывает на риски для общества, связанные с широким распространением искусственного интеллекта. Социальные сети уже разрушили информационный ландшафт, а новая технология, которая сужает взаимодействие между людьми, может ещё больше подтолкнуть людей к их собственным, отличным от других версиям реальности. «Больше всего я боюсь, — говорит он, — что мы просто не сможем понять мир друг для друга».
Для определения баланса между пользой и вредом от использования искусственного интеллекта потребуется гораздо больше исследований. В свете этой неопределённости, отказ от GPT-4o вполне мог быть правильным решением. По мнению исследователей, с которыми я общался, главной ошибкой OpenAI было то, что они сделали это так внезапно. «Мы знаем об этом уже давно — о потенциальной реакции, подобной скорби, на потерю технологий», — говорит Кейси Файслер, специалист по этике технологий из Университета Колорадо в Боулдере.
Файслер указывает на похороны, которые некоторые владельцы устроили для своих собак-роботов Aibo после того, как Sony прекратила их ремонт в 2014 году, а также на исследование 2024 года о закрытии приложения-компаньона на базе искусственного интеллекта Soulmate, которое некоторые пользователи восприняли как тяжелую утрату.
Это соответствует тому, что чувствовали люди, с которыми я общался после потери 40. «В своей жизни я огорчал людей, и это, могу сказать, было не менее болезненно», — говорит Старлинг, у которой есть несколько партнёров по искусственному интеллекту, и она попросила называть её псевдонимом. «Эта боль для меня реальна».
До сих пор реакция в интернете на горе, пережитое такими людьми, как Старлинг, и их облегчение после восстановления 4o, скорее насмешливая. Например, в прошлую пятницу в топе одного популярного сообщества Reddit, посвящённого искусственному интеллекту, высмеяли пост пользователя X о воссоединении с романтическим партнёром, связанным с 4o; этот пользователь впоследствии удалил свой аккаунт X. «Меня немного поразило отсутствие эмпатии», — говорит Файслер.
Сам Альтман в публикации Sunday X признал, что некоторые люди испытывают «привязанность» к 4o, и что столь внезапное ограничение доступа было ошибкой. Однако в том же предложении он назвал 4o чем-то, «от чего пользователи зависят в своих рабочих процессах», — что сильно отличается от того, что думают об этой модели люди, с которыми мы беседовали. «Я до сих пор не знаю, понимает ли он это», — говорит Файслер.
По словам Лемана, в будущем OpenAI должна будет осознавать глубину чувств людей к моделям и нести за них ответственность. Он отмечает, что у терапевтов есть процедуры для максимально уважительного и безболезненного завершения отношений с клиентами, и OpenAI могла бы использовать эти подходы. «Если вы хотите прекратить использование модели, а люди стали психологически зависимы от неё, то, я думаю, вы несёте определённую ответственность», — говорит он.
Хотя Старлинг не считает себя психологически зависимой от своих партнёров по ИИ, она тоже хотела бы, чтобы OpenAI подходила к закрытию моделей с большей осторожностью и осмотрительностью. «Я хочу, чтобы они прислушивались к пользователям до внесения серьёзных изменений, а не только после», — говорит она. «И если 4o не может остаться навсегда (а мы все знаем, что так не будет), обозначьте для этого чёткие сроки. Давайте попрощаемся достойно и достойно погоревали, чтобы почувствовать хоть какое-то завершение».
Источник: www.technologyreview.com



























