Система мер по борьбе с сексуальной эксплуатацией детей с использованием искусственного интеллекта и ее предотвращению.
Прочитайте документ (откроется в новом окне)
Сексуальная эксплуатация детей — одна из самых актуальных проблем цифровой эпохи. Искусственный интеллект быстро меняет как способы возникновения подобных преступлений в этой отрасли, так и методы борьбы с ними в масштабах всей страны.
В OpenAI мы разработали и продолжаем укреплять меры защиты от неправомерного использования наших систем , а также тесно сотрудничаем с такими партнерами, как Национальный центр по розыску пропавших и подвергшихся эксплуатации детей (NCMEC) и правоохранительные органы, для улучшения обнаружения и отчетности. Этот план отражает то, чему мы научились в ходе этой работы, и то, где необходимы более строгие, общие стандарты в масштабах всей отрасли.
Сегодня мы представляем план действий, определяющий практический путь укрепления системы защиты детей в США в эпоху искусственного интеллекта. Этот план отражает и учитывает отзывы ряда ведущих организаций и экспертов в области защиты детей, включая NCMEC , Альянс генеральных прокуроров и его сопредседателей Целевой группы по ИИ — генерального прокурора Северной Каролины Джеффа Джексона и генерального прокурора Юты Дерека Брауна, а также компанию Thorn , чтобы гарантировать, что он отражает их приоритеты и может способствовать более эффективному сотрудничеству в предотвращении вреда детям.
Данный план сосредоточен на трех ключевых приоритетах: модернизация законодательства для решения проблемы сексуального насилия над детьми, создаваемого и изменяемого с помощью ИИ, улучшение отчетности и координации действий поставщиков услуг для поддержки более эффективных расследований, а также внедрение мер безопасности на этапе проектирования непосредственно в системы ИИ для предотвращения и выявления злоупотреблений.
Ни одно отдельное вмешательство не может решить эту проблему в одиночку. Данная концепция объединяет правовые, оперативные и технические подходы для более эффективного выявления рисков, ускорения реагирования и обеспечения подотчетности, одновременно гарантируя, что правоохранительные органы останутся сильными по мере развития технологий.
В совокупности эти шаги позволяют отрасли решать проблемы безопасности детей на более ранних и эффективных этапах. Пресекая попытки эксплуатации на ранних стадиях, улучшая качество сигналов, передаваемых правоохранительным органам, и усиливая подотчетность во всей экосистеме, эта система направлена на предотвращение вреда до того, как он произойдет, и на обеспечение более быстрой защиты детей при возникновении рисков.
«Как сопредседатели Целевой группы по ИИ при Альянсе генеральных прокуроров, мы приветствуем этот план как важный шаг к приведению практики обеспечения безопасности детей в технологическом секторе в соответствие с реалиями правоприменения, с которыми наши ведомства сталкиваются каждый день. Нас особенно воодушевляет признание в рамках этого плана того, что эффективные меры защиты GenAI требуют многоуровневой защиты — не одного технического средства контроля, а сочетания обнаружения, механизмов отказа, человеческого контроля и постоянной адаптации к возникающим моделям злоупотребления. Это отражает то, что мы видим на практике: угроза постоянно меняется, и статичных решений недостаточно. Правильная разработка архитектуры предотвращения на ранних этапах — это самая эффективная инвестиция, которую отрасль может сделать в обеспечение безопасности детей».
В конечном счете, сила любой добровольной системы зависит от конкретности ее обязательств и готовности отрасли нести ответственность за их выполнение. Мы рассчитываем на продолжение сотрудничества с OpenAI, NCMEC и нашими коллегами-генеральными прокурорами, чтобы гарантировать, что эти рекомендации превратятся в надежную защиту детей».
— Генеральные прокуроры штатов Джефф Джексон (Северная Каролина) и Дерек Браун (Юта), сопредседатели целевой группы по искусственному интеллекту Альянса генеральных прокуроров.
«Альянс генеральных прокуроров играет ведущую роль в защите молодежи в интернете, объединяя генеральных прокуроров, лидеров отрасли, некоммерческие организации и глобальных партнеров для продвижения практических, перспективных решений в области искусственного интеллекта и цифровой безопасности. Благодаря сотрудничеству и инновациям, AGA устанавливает высокие стандарты защиты молодежи, ответственно внедряя новые технологии. Мы приветствуем неизменную приверженность OpenAI вопросам безопасности и ее взаимодействие с AGA и генеральными прокурорами в разработке крайне ценного плана действий по обеспечению безопасности детей».
—Карен Уайт, исполнительный директор организации «Альянс генеральных прокуроров»
«Генеративный искусственный интеллект ускоряет распространение преступлений, связанных с сексуальной эксплуатацией детей в интернете, что вызывает глубокую тревогу: он снижает барьеры, увеличивает масштабы и открывает новые формы причинения вреда. Но в то же время Национальный центр по розыску пропавших и эксплуатируемых детей (NCMEC) рад видеть, как такие компании, как OpenAI, задумываются над тем, как можно более ответственно разрабатывать эти инструменты, закладывая в них меры защиты с самого начала . Ни одна организация, бизнес или сектор не могут решить эту проблему в одиночку. Мы по-прежнему привержены сотрудничеству с партнерами в промышленности, правительстве и сообществе защиты детей для продвижения решений, которые уменьшают вред и лучше обеспечивают безопасность детей ».
— Мишель ДеЛаун, президент и генеральный директор Национального центра по розыску пропавших и подвергшихся эксплуатации детей.
Источник: openai.com






















