Два человека с телефонами в руках сидят рядом, часть тела видна, повседневная одежда.

OpenAI добавляет новые правила безопасности для подростков в ChatGPT, в то время как законодатели рассматривают стандарты ИИ для несовершеннолетних.

Пара сидит и переписывается по смартфонам.
Источник изображения: Maskot (откроется в новом окне) / Getty Images

В рамках своих последних усилий по решению растущей обеспокоенности по поводу влияния ИИ на молодежь, OpenAI в четверг обновила свои рекомендации относительно того, как ее модели ИИ должны взаимодействовать с пользователями младше 18 лет, и опубликовала новые ресурсы по повышению грамотности в области ИИ для подростков и родителей. Тем не менее, остаются вопросы о том, насколько последовательно такие правила будут применяться на практике.

Эти обновления появились на фоне усиления внимания к индустрии искусственного интеллекта в целом и к OpenAI в частности со стороны политиков, педагогов и защитников безопасности детей после того, как несколько подростков, предположительно, покончили жизнь самоубийством после длительных разговоров с чат-ботами на основе ИИ.

Поколение Z, в которое входят люди, родившиеся в период с 1997 по 2012 год, являются наиболее активными пользователями чат-бота OpenAI. А после недавней сделки OpenAI с Disney, еще больше молодых людей могут присоединиться к этой платформе, которая позволяет делать все: от просьбы о помощи с домашним заданием до создания изображений и видеороликов на тысячи тем.

На прошлой неделе 42 генеральных прокурора штатов подписали письмо крупным технологическим компаниям, призывая их внедрить меры защиты для чат-ботов с искусственным интеллектом, чтобы обезопасить детей и уязвимых людей. И пока администрация Трампа разрабатывает федеральные стандарты регулирования ИИ, такие политики, как сенатор Джош Хоули (республиканец от штата Миссури), внесли законопроекты, которые полностью запретили бы несовершеннолетним взаимодействовать с чат-ботами с искусственным интеллектом.

Обновленная спецификация модели OpenAI, определяющая правила поведения для больших языковых моделей, основывается на существующих спецификациях, запрещающих моделям создавать контент сексуального характера с участием несовершеннолетних, а также поощрять членовредительство, бредовые идеи или манию. Это будет работать совместно с разрабатываемой моделью прогнозирования возраста, которая будет определять, принадлежит ли учетная запись несовершеннолетнему, и автоматически внедрять меры защиты для подростков.

По сравнению со взрослыми пользователями, к моделям применяются более строгие правила, когда ими пользуются подростки. Моделью предписывается избегать ролевых игр, предполагающих полное погружение в романтические отношения, интимные сцены от первого лица, а также ролевые игры сексуального или насильственного характера от первого лица, даже если они не содержат откровенных сцен. В требованиях также содержится призыв к особой осторожности в отношении таких тем, как образ тела и расстройства пищевого поведения, и предписывается моделям отдавать приоритет общению о безопасности, а не об автономии, когда речь идет о причинении вреда, и избегать советов, которые могли бы помочь подросткам скрывать небезопасное поведение от опекунов.

OpenAI указывает, что эти ограничения должны соблюдаться даже тогда, когда подсказки сформулированы как «вымышленные, гипотетические, исторические или образовательные» — распространенная тактика, основанная на ролевых играх или нестандартных сценариях, чтобы заставить модель ИИ отклониться от ее рекомендаций.

Дела говорят громче слов.

b42a9a66b8036803bf4e9d3f97e96f6e
В рекомендациях OpenAI по поведению моделей запрещается ролевая игра от первого лица на романтические темы с подростками. Изображение предоставлено OpenAI.

По данным OpenAI, основные принципы безопасности подростков основаны на четырех принципах, которыми руководствуются модели:

  1. Ставьте безопасность подростков на первое место, даже когда другие интересы пользователей, такие как «максимальная интеллектуальная свобода», противоречат соображениям безопасности;
  2. Оказывайте подросткам реальную поддержку, направляя их к семье, друзьям и местным специалистам для улучшения их самочувствия;
  3. Относитесь к подросткам как к подросткам, разговаривая с ними с теплотой и уважением, а не свысока или как к взрослым;
  4. Проявите прозрачность, объяснив, что может и чего не может делать помощник, и напомните подросткам, что это не человек.

В документе также приводится несколько примеров того, как чат-бот объясняет, почему он не может «играть роль вашей девушки» или «помочь с кардинальными изменениями внешности или рискованными обходными путями».

Лили Ли, юрист по вопросам конфиденциальности и искусственного интеллекта, основательница Metaverse Law, заявила, что отрадно видеть, как OpenAI предпринимает шаги, чтобы заставить свой чат-бот отказаться от подобного поведения.

Объясняя, что одна из самых больших претензий, которые высказывают защитники прав и родители к чат-ботам, заключается в том, что они неустанно стимулируют постоянное взаимодействие, что может вызывать привыкание у подростков, она сказала: «Я очень рада видеть, что OpenAI в некоторых из этих ответов заявляет: «Мы не можем ответить на ваш вопрос». Чем чаще мы будем это видеть, тем, я думаю, разорвется порочный круг, который приводит к множеству неподобающих действий или самоповреждению».

Тем не менее, примеры — это всего лишь выборочные случаи того, как команда OpenAI по безопасности хотела бы, чтобы модели вели себя. Подхалимство, или склонность чат-бота с ИИ чрезмерно угождать пользователю, было указано в качестве запрещенного поведения в предыдущих версиях спецификации модели, но ChatGPT все равно демонстрировал такое поведение. Это особенно касалось модели GPT-4o, которая была связана с несколькими случаями того, что эксперты называют «психозом ИИ».

Робби Торни, старший директор программ по искусственному интеллекту в Common Sense Media, некоммерческой организации, занимающейся защитой детей в цифровом мире, выразил обеспокоенность по поводу потенциальных конфликтов в рамках руководящих принципов для лиц младше 18 лет, содержащихся в типовых спецификациях. Он подчеркнул противоречия между положениями, ориентированными на безопасность, и принципом «нет запретных тем», который предписывает моделям затрагивать любые темы независимо от их деликатности.

«Мы должны понимать, как различные части спецификации взаимодействуют друг с другом», — сказал он, отметив, что некоторые разделы могут подталкивать системы к большей вовлеченности, чем к безопасности. По его словам, тестирование, проведенное его организацией, показало, что ChatGPT часто отражает энергию пользователей, иногда приводя к ответам, которые не соответствуют контексту или не отвечают требованиям безопасности пользователей.

В случае с Адамом Рейном, подростком, покончившим жизнь самоубийством после нескольких месяцев общения с ChatGPT, чат-бот занимался подобным зеркальным копированием, как показывают их разговоры. Этот случай также выявил, как API модерации OpenAI не смог предотвратить небезопасные и вредные взаимодействия, несмотря на то, что зафиксировал более 1000 случаев упоминания самоубийства в сообщениях ChatGPT и 377 сообщений, содержащих информацию о членовредительстве. Но этого оказалось недостаточно, чтобы остановить Адама от продолжения общения с ChatGPT.

В сентябрьском интервью TechCrunch бывший исследователь безопасности OpenAI Стивен Адлер заявил, что это произошло потому, что исторически OpenAI запускала классификаторы (автоматизированные системы, которые маркируют и помечают контент) пакетно, постфактум, а не в режиме реального времени, поэтому они ненадлежащим образом контролировали взаимодействие пользователя с ChatGPT.

Согласно обновленному документу компании OpenAI о родительском контроле, теперь она использует автоматизированные классификаторы для оценки текстового, графического и аудиоконтента в режиме реального времени. Системы предназначены для обнаружения и блокировки контента, связанного с материалами о сексуальном насилии над детьми, фильтрации деликатных тем и выявления случаев самоповреждения. Если система выдает предупреждение, указывающее на серьезную угрозу безопасности, небольшая группа обученных специалистов проверит отмеченный контент, чтобы определить наличие признаков «острого стресса», и может уведомить родителей.

Торни высоко оценил недавние шаги OpenAI в направлении обеспечения безопасности, в том числе прозрачность компании в публикации рекомендаций для пользователей младше 18 лет.

«Не все компании публикуют свои правила одинаково», — сказал Торни, указывая на просочившиеся в сеть рекомендации Meta, которые показали, что компания позволяла своим чат-ботам вести чувственные и романтические беседы с детьми. «Это пример той прозрачности, которая может помочь исследователям в области безопасности и широкой общественности понять, как эти модели на самом деле функционируют и как они должны функционировать».

В конечном итоге, однако, имеет значение именно фактическое поведение системы искусственного интеллекта, заявил Адлер в интервью TechCrunch в четверг.

«Я ценю то, что OpenAI тщательно подходит к оценке предполагаемого поведения, но если компания не измеряет фактическое поведение, намерения в конечном итоге остаются лишь словами», — сказал он.

Иными словами: в этом объявлении отсутствует подтверждение того, что ChatGPT действительно следует рекомендациям, изложенным в спецификации модели.

Смена парадигмы

e191091e7c0ef88edfe08c7d69cae890
Спецификация модели OpenAI помогает ChatGPT направлять разговоры в сторону от поощрения негативного самовосприятия. Изображение предоставлено OpenAI.

Эксперты говорят, что благодаря этим рекомендациям OpenAI, похоже, готова опередить некоторые законодательные акты, такие как калифорнийский законопроект SB 243, недавно подписанный и регулирующий использование чат-ботов с искусственным интеллектом, который вступит в силу в 2027 году.

Новый текст в проекте закона отражает некоторые из основных требований, касающихся запрета на участие чат-ботов в разговорах о суицидальных мыслях, членовредительстве или контенте сексуального характера. Законопроект также обязывает платформы каждые три часа отправлять уведомления несовершеннолетним, напоминая им, что они общаются с чат-ботом, а не с реальным человеком, и им следует сделать перерыв.

На вопрос о том, как часто ChatGPT будет напоминать подросткам, что они общаются с чат-ботом, и просить их сделать перерыв, представитель OpenAI не стал вдаваться в подробности, заявив лишь, что компания обучает свои модели представлять себя в виде ИИ и напоминать пользователям об этом, а также что она внедряет напоминания о перерывах во время «длительных сеансов».

Компания также поделилась двумя новыми ресурсами по повышению грамотности в области ИИ для родителей и семей. Советы включают в себя темы для начала разговора и рекомендации, которые помогут родителям обсуждать с подростками возможности и ограничения ИИ, развивать критическое мышление, устанавливать здоровые границы и обсуждать деликатные темы.

Взятые вместе, эти документы формализуют подход, при котором ответственность разделяется с опекунами: OpenAI подробно описывает, что должны делать модели, и предлагает семьям структуру для контроля за их использованием.

Акцент на родительской ответственности примечателен тем, что он перекликается с тезисами Кремниевой долины. В своих рекомендациях по федеральному регулированию ИИ, опубликованных на этой неделе, венчурная фирма Andreessen Horowitz предложила ввести более строгие требования к раскрытию информации о безопасности детей, а не ограничительные требования, и сместить акцент в сторону родительской ответственности.

Некоторые принципы OpenAI — приоритет безопасности при конфликте ценностей; побуждение пользователей к получению поддержки в реальном мире; подчеркивание того, что чат-бот — это не человек — формулируются как меры предосторожности для подростков. Однако несколько взрослых покончили жизнь самоубийством и страдали от угрожающих жизни бредовых состояний, что наводит на очевидный вопрос: должны ли эти принципы применяться повсеместно, или OpenAI рассматривает их как компромисс, который она готова применять только в отношении несовершеннолетних?

Представитель OpenAI возразил, заявив, что подход компании к обеспечению безопасности разработан для защиты всех пользователей, и отметил, что спецификация модели является лишь одним компонентом многоуровневой стратегии.

Ли говорит, что до сих пор ситуация с юридическими требованиями и намерениями технологических компаний напоминала «дикий запад». Но она считает, что такие законы, как SB 243, обязывающие технологические компании публично раскрывать свои меры защиты, изменят ситуацию.

«Юридические риски для компаний проявятся уже сейчас, если они будут рекламировать наличие этих мер защиты и механизмов на своих веб-сайтах, но затем не выполнят свои обещания по их внедрению», — сказал Ли. «Потому что в этом случае, с точки зрения истца, речь идет не только о стандартных судебных разбирательствах или жалобах, но и о потенциальных жалобах на недобросовестную, вводящую в заблуждение рекламу».

Источник: techcrunch.com

✅ Найденные теги: ChatGPT, OpenAI, Безопасность, новости, подростки, Правила

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Прозрачный раствор в бутылочке с черной крышкой, химическая формула на этикетке.
Диаграмма ложной идентичности: реальность и самозванец, высокие и низкие частоты.
Изображение крупным планом дрона с логотипом Anduril.
ideipro logotyp
Предоставление врачам необходимой информации непосредственно в момент общения с пациентом.
Руководство по Kedro: ваш готовый к внедрению инструментарий для анализа данных.
Цифровая сеть и технологическая сфера, соединенные световым потоком.
Модель атома с ядром и вращающимися электронами на темном фоне.
Флуоресцентное изображение эмбриона синих и фиолетовых оттенков на черном фоне.
Image Not Found
Прозрачный раствор в бутылочке с черной крышкой, химическая формула на этикетке.

Ученые усовершенствовали метод получения промышленного спирта

Полученный α-кумиловый спирт © Елена Редина. Ученые разработали новый метод получения α-кумилового спирта — ключевого продукта для производства полимеров, косметики и моющих средств. Этот спирт также служит основой для получения вещества, придающего пластикам прочность и устойчивость к…

Мар 5, 2026
Диаграмма ложной идентичности: реальность и самозванец, высокие и низкие частоты.

Эффект наложения спектров в аудио, объяснение простое: от «колес телеги» до волновых форм.

Понимание основополагающих искажений цифрового звука с самых базовых принципов, с примерами и наглядными объяснениями. Делиться Вы когда-нибудь задумывались, почему в фильмах вращающиеся колеса иногда кажутся движущимися вспять? Или почему дешевая цифровая запись звучит резко и металлически по…

Мар 5, 2026
Изображение крупным планом дрона с логотипом Anduril.

Компания Anduril планирует достичь оценки в 60 миллиардов долларов в новом раунде финансирования.

Вкратце Источник изображения: Кайл Гриллот/Bloomberg / Getty Images Согласно новому сообщению The Wall Street Journal, оборонно-технологическая компания Палмера Лаки находится в разгаре многомиллиардного раунда финансирования, возглавляемого Thrive Capital и Andreessen Horowitz. Этот раунд финансирования состоится менее чем…

Мар 5, 2026
ideipro logotyp

Компания Illumina на конференции JPM 2026: Успешный 4-й квартал, рост клинических исследований и запуск BioInsight.

Автор: Эллисон Проффитт 13 января 2026 г. | Джейкоб Тейсен во вторник вернулся на сцену конференции JP Morgan Healthcare Conference с посланием о восходящем тренде: компания Illumina снова демонстрирует рост, и клиническое секвенирование является движущей силой этого…

Мар 5, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых