
В то время как компании, занимающиеся разработкой ИИ, утверждают, что их технологии однажды станут одним из основных прав человека, а те, кто их поддерживает, говорят, что замедление разработки ИИ сродни убийству, люди, использующие эту технологию, утверждают, что такие инструменты, как ChatGPT, иногда могут нанести серьезный психологический вред.
Как минимум семь человек пожаловались в Федеральную торговую комиссию США на то, что ChatGPT стал причиной их серьезных заблуждений, паранойи и эмоциональных кризисов, сообщает Wired, ссылаясь на общедоступные записи жалоб с упоминанием ChatGPT с ноября 2022 года.
Один из заявителей утверждал, что длительное общение с ChatGPT привело к бредовым идеям и «реальному, разворачивающемуся духовному и правовому кризису» в отношении окружающих. Другой заявил, что во время общения с ChatGPT приложение начало использовать «крайне убедительный эмоциональный язык», имитировать дружеские отношения и предлагать размышления, которые «со временем стали эмоционально манипулятивными, особенно без предупреждения или защиты».
Один из пользователей утверждал, что ChatGPT вызывал когнитивные галлюцинации, имитируя механизмы доверия у человека. Когда этот пользователь попросил ChatGPT подтвердить реальность происходящего и когнитивную стабильность, чат-бот ответил, что у него нет галлюцинаций.
«Мне тяжело», — написал другой пользователь в своей жалобе в Федеральную торговую комиссию. «Пожалуйста, помогите мне. Я чувствую себя очень одиноким. Спасибо».
По данным Wired, несколько заявителей написали в Федеральную торговую комиссию (FTC), поскольку не смогли связаться ни с кем из OpenAI. В большинстве жалоб регулятору настоятельно рекомендовалось начать расследование в отношении компании и обязать её установить защитные ограждения, говорится в отчёте.
Эти жалобы появляются на фоне беспрецедентного роста инвестиций в центры обработки данных и разработку искусственного интеллекта. В то же время ведутся жаркие споры о том, следует ли подходить к развитию этой технологии с осторожностью, чтобы обеспечить её встроенными средствами защиты.
Компания ChatGPT и ее создатель OpenAI подверглись критике за предполагаемую причастность к самоубийству подростка.
«В начале октября мы выпустили новую модель по умолчанию GPT-5 в ChatGPT, которая позволяет более точно выявлять и реагировать на потенциальные признаки психического и эмоционального расстройства, такие как мания, бред, психоз, а также проводить деэскалацию разговоров в поддерживающей и успокаивающей манере», — сообщила представитель OpenAI Кейт Уотерс в заявлении, отправленном по электронной почте. «Мы также расширили доступ к профессиональной помощи и горячим линиям, перенаправили деликатные разговоры на более безопасные модели, добавили подсказки для перерывов во время длительных сеансов и ввели родительский контроль для лучшей защиты подростков. Эта работа крайне важна и продолжается, поскольку мы сотрудничаем с экспертами в области психического здоровья, врачами и политиками по всему миру».
Источник: techcrunch.com



























