ideipro logotyp

Представляем план обеспечения безопасности детей | OpenAI

Система мер по борьбе с сексуальной эксплуатацией детей с использованием искусственного интеллекта и ее предотвращению.

Прочитайте документ (откроется в новом окне)

Сексуальная эксплуатация детей — одна из самых актуальных проблем цифровой эпохи. Искусственный интеллект быстро меняет как способы возникновения подобных преступлений в этой отрасли, так и методы борьбы с ними в масштабах всей страны.

В OpenAI мы разработали и продолжаем укреплять меры защиты от неправомерного использования наших систем , а также тесно сотрудничаем с такими партнерами, как Национальный центр по розыску пропавших и подвергшихся эксплуатации детей (NCMEC) и правоохранительные органы, для улучшения обнаружения и отчетности. Этот план отражает то, чему мы научились в ходе этой работы, и то, где необходимы более строгие, общие стандарты в масштабах всей отрасли.

Сегодня мы представляем план действий, определяющий практический путь укрепления системы защиты детей в США в эпоху искусственного интеллекта. Этот план отражает и учитывает отзывы ряда ведущих организаций и экспертов в области защиты детей, включая NCMEC , Альянс генеральных прокуроров и его сопредседателей Целевой группы по ИИ — генерального прокурора Северной Каролины Джеффа Джексона и генерального прокурора Юты Дерека Брауна, а также компанию Thorn , чтобы гарантировать, что он отражает их приоритеты и может способствовать более эффективному сотрудничеству в предотвращении вреда детям.

Данный план сосредоточен на трех ключевых приоритетах: модернизация законодательства для решения проблемы сексуального насилия над детьми, создаваемого и изменяемого с помощью ИИ, улучшение отчетности и координации действий поставщиков услуг для поддержки более эффективных расследований, а также внедрение мер безопасности на этапе проектирования непосредственно в системы ИИ для предотвращения и выявления злоупотреблений.

Ни одно отдельное вмешательство не может решить эту проблему в одиночку. Данная концепция объединяет правовые, оперативные и технические подходы для более эффективного выявления рисков, ускорения реагирования и обеспечения подотчетности, одновременно гарантируя, что правоохранительные органы останутся сильными по мере развития технологий.

В совокупности эти шаги позволяют отрасли решать проблемы безопасности детей на более ранних и эффективных этапах. Пресекая попытки эксплуатации на ранних стадиях, улучшая качество сигналов, передаваемых правоохранительным органам, и усиливая подотчетность во всей экосистеме, эта система направлена на предотвращение вреда до того, как он произойдет, и на обеспечение более быстрой защиты детей при возникновении рисков.

«Как сопредседатели Целевой группы по ИИ при Альянсе генеральных прокуроров, мы приветствуем этот план как важный шаг к приведению практики обеспечения безопасности детей в технологическом секторе в соответствие с реалиями правоприменения, с которыми наши ведомства сталкиваются каждый день. Нас особенно воодушевляет признание в рамках этого плана того, что эффективные меры защиты GenAI требуют многоуровневой защиты — не одного технического средства контроля, а сочетания обнаружения, механизмов отказа, человеческого контроля и постоянной адаптации к возникающим моделям злоупотребления. Это отражает то, что мы видим на практике: угроза постоянно меняется, и статичных решений недостаточно. Правильная разработка архитектуры предотвращения на ранних этапах — это самая эффективная инвестиция, которую отрасль может сделать в обеспечение безопасности детей».

В конечном счете, сила любой добровольной системы зависит от конкретности ее обязательств и готовности отрасли нести ответственность за их выполнение. Мы рассчитываем на продолжение сотрудничества с OpenAI, NCMEC и нашими коллегами-генеральными прокурорами, чтобы гарантировать, что эти рекомендации превратятся в надежную защиту детей».

Генеральные прокуроры штатов Джефф Джексон (Северная Каролина) и Дерек Браун (Юта), сопредседатели целевой группы по искусственному интеллекту Альянса генеральных прокуроров.

«Альянс генеральных прокуроров играет ведущую роль в защите молодежи в интернете, объединяя генеральных прокуроров, лидеров отрасли, некоммерческие организации и глобальных партнеров для продвижения практических, перспективных решений в области искусственного интеллекта и цифровой безопасности. Благодаря сотрудничеству и инновациям, AGA устанавливает высокие стандарты защиты молодежи, ответственно внедряя новые технологии. Мы приветствуем неизменную приверженность OpenAI вопросам безопасности и ее взаимодействие с AGA и генеральными прокурорами в разработке крайне ценного плана действий по обеспечению безопасности детей».

—Карен Уайт, исполнительный директор организации «Альянс генеральных прокуроров»

«Генеративный искусственный интеллект ускоряет распространение преступлений, связанных с сексуальной эксплуатацией детей в интернете, что вызывает глубокую тревогу: он снижает барьеры, увеличивает масштабы и открывает новые формы причинения вреда. Но в то же время Национальный центр по розыску пропавших и эксплуатируемых детей (NCMEC) рад видеть, как такие компании, как OpenAI, задумываются над тем, как можно более ответственно разрабатывать эти инструменты, закладывая в них меры защиты с самого начала . Ни одна организация, бизнес или сектор не могут решить эту проблему в одиночку. Мы по-прежнему привержены сотрудничеству с партнерами в промышленности, правительстве и сообществе защиты детей для продвижения решений, которые уменьшают вред и лучше обеспечивают безопасность детей ».

— Мишель ДеЛаун, президент и генеральный директор Национального центра по розыску пропавших и подвергшихся эксплуатации детей.

Источник: openai.com

✅ Найденные теги: OpenAI, Безопасность, Дети, новости, План, Представляем

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Диаграмма процесса отбора участников исследования с условиями и исключениями.
Цветной кристалл, окружённый прозрачными пузырями диалога на белом фоне.
Желто-зеленый туннель с рельсами, яркий свет в конце, графическая обработка.
ideipro logotyp
Коллаж с газетными вырезками, снимком человека и графиком на фоне синей бумаги.
ideipro logotyp
Золотая геометрическая иллюстрация со звездами и линиями на темном фоне.
Студенты работают за ноутбуком, обсудив проект в современном пространстве.
Диаграмма сравнивает потоки беседы Baseline AI и Wayfinding AI.
Image Not Found
Диаграмма процесса отбора участников исследования с условиями и исключениями.

Бимагрумаб в сочетании с семаглутидом: обзор нового препарата для лечения ожирения

Данная статья обновлена. Абстрактный Бимагрумаб — это экспериментальный препарат на основе антител, нацеленный на рецепторы активина II типа, предназначенный для уменьшения общей массы тела и висцерального жира, а также для стимуляции роста мышц. В этом двойном слепом…

Апр 9, 2026
Цветной кристалл, окружённый прозрачными пузырями диалога на белом фоне.

Тестирование показывает, что функции Google AI Overviews разглашают миллионы ложных сведений в час.

Достаточно ли 90-процентной точности для поискового робота? Источник: Google Настройки текста Текст рассказа Размер Маленький Стандартный Большой Ширина * Стандартный Широкий Ссылки Стандартный Оранжевый * Только для подписчиков Узнать больше Свернуть в навигацию Сегодня поиск информации в…

Апр 9, 2026
Желто-зеленый туннель с рельсами, яркий свет в конце, графическая обработка.

Разработчик WireGuard VPN не может выпускать обновления программного обеспечения после блокировки учетной записи компанией Microsoft.

Источник изображения: Брайс Дурбин / TechCrunch WireGuard, крупный программный проект и VPN-сервис, лежащий в основе популярных программ безопасности, включая Mullvad и другие, столкнулся с блокировкой доступа к ключевой части своей учетной записи разработчика Microsoft и не может…

Апр 9, 2026
ideipro logotyp

Компания Anthropic объединяется со своими конкурентами, чтобы помешать искусственному интеллекту взламывать всё подряд.

В рамках проекта Glasswing лаборатории искусственного интеллекта объединятся Apple, Google и более 45 других организаций. Они будут использовать новую предварительную модель Claude Mythos для тестирования перспективных возможностей кибербезопасности на основе ИИ. Источник: www.wired.com ✅ Найденные теги: Anthropic,…

Апр 9, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых