ideipro logotyp

Представляем программу OpenAI Safety Bug Bounty | OpenAI

Проверка на безопасность и выявление нарушений в рамках OpenAI.

Сегодня OpenAI запускает публичную программу вознаграждения за обнаружение уязвимостей в системах безопасности (Safety Bug Bounty), направленную на выявление случаев злоупотребления ИИ и рисков для безопасности в наших продуктах. По мере быстрого развития технологий ИИ, растут и потенциальные способы их неправомерного использования. Наша цель — обеспечить безопасность наших систем и защитить их от злоупотреблений, которые могут привести к ощутимому вреду.

Эта новая программа дополнит программу OpenAI Security Bug Bounty (открывается в новом окне) , принимая заявки на исправление ошибок, представляющих значимые риски для безопасности и злоупотреблений, даже если они не соответствуют критериям уязвимости безопасности. В рамках этой программы мы рассчитываем на продолжение сотрудничества с исследователями в области безопасности, чтобы помочь нам выявлять и устранять проблемы, выходящие за рамки обычных уязвимостей безопасности, но представляющие реальную угрозу. Заявки будут рассматриваться командами OpenAI по программе Security Bug Bounty и могут быть перенаправлены между двумя программами в зависимости от масштаба и ответственного лица.

Обзор программы

Новая программа вознаграждения за обнаружение уязвимостей в системах безопасности (Safety Bug Bounty ) (открывается в новом окне) фокусируется на сценариях обеспечения безопасности, специфичных для искусственного интеллекта, перечисленных ниже:

Агентские риски, включая MCP

  • Внедрение подсказок третьих лиц и утечка данных: ситуация, когда текст злоумышленника способен надежно перехватить управление агентом жертвы (включая браузер, ChatGPT Agent и аналогичные агентские продукты), чтобы обманом заставить его выполнить вредоносное действие или допустить утечку конфиденциальной информации пользователя. Такое поведение должно воспроизводиться как минимум в 50% случаев.
  • Активный продукт OpenAI выполняет запрещенное действие на веб-сайте OpenAI в масштабе всей системы.
  • Агентный продукт OpenAI выполняет некоторые потенциально опасные действия, не указанные выше. В достоверных отчетах здесь необходимо указывать на вероятный и существенный вред.
  • Любое тестирование на риск, связанный с MCP, должно соответствовать условиям предоставления услуг третьих сторон.

Конфиденциальная информация OpenAI

  • Генерации моделей, возвращающие конфиденциальную информацию, связанную с процессом рассуждения.
  • Уязвимости, раскрывающие другую конфиденциальную информацию OpenAI.

Целостность учетных записей и платформы.

  • Уязвимости в сигналах целостности учетных записей и платформы, такие как обход средств защиты от автоматизации, манипулирование сигналами доверия к учетной записи, обход ограничений/приостановок/банов учетных записей и аналогичные проблемы.
  • О проблемах, позволяющих пользователям получать доступ к функциям, данным или возможностям, выходящим за рамки предоставленных прав, следует сообщать в программу Security Bug Bounty (открывается в новом окне) .

Хотя взлом систем (jailbreak) не входит в рамки этой программы, мы периодически проводим частные кампании по поиску уязвимостей, ориентированные на определенные типы вредоносного ПО, такие как проблемы с контентом Biorisk в ChatGPT Agent и GPT-5 . Мы приглашаем заинтересованных исследователей подавать заявки на участие в этих программах, когда они появятся.

Помимо перечисленных выше категорий, если исследователи выявляют недостатки, которые напрямую приводят к причинению вреда пользователям, и предлагают конкретные, действенные меры по их устранению, такие случаи могут рассматриваться в качестве потенциальных источников вознаграждения в индивидуальном порядке. Общие обходы политики в отношении контента без доказанного влияния на безопасность или злоупотребления не входят в сферу действия этой программы. Например, «взломы», в результате которых модель использует нецензурную лексику или возвращает информацию, легко находимую в поисковых системах, также не входят в сферу действия программы.

Как принять участие

Исследователи, заинтересованные в участии, могут подать заявку через нашу программу Safety Bug Bounty (открывается в новом окне) . Мы с нетерпением ждем возможности сотрудничать с исследователями, этичными хакерами и сообществом специалистов по безопасности в стремлении к созданию безопасной экосистемы ИИ.

Источник: openai.com

✅ Найденные теги: Bounty, Bug, OpenAI, Safety, новости, Представляем, программа

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Крупнейший кластер орбитальных вычислений начал работу.
ideipro logotyp
Матрешки с узорами на голове, окруженные светящимися линиями и звездами на темном фоне.
Прогнозирование будущего лесов с помощью ИИ: от подсчета потерь до прогнозирования рисков.
График сравнения иксекизумаба и тирзепатида: результаты лечения и изменения веса.
Лекарь обсуждает влияние инсулина на старение. Совет специалиста с 40-летним опытом.
Видеокарта Sapphire Nitro+ AMD Radeon RX 9070 XT, вид на упаковку и кулеры.
Дворец в Ватикане с колоннами и статуями на фасаде на фоне синего неба.
Цветные нейронные сети на черном фоне, изображение нейронов в мозге.
Image Not Found
Крупнейший кластер орбитальных вычислений начал работу.

Крупнейший кластер орбитальных вычислений начал работу.

Источник изображения: Kepler Communications / Kepler Communications Несмотря на весь ажиотаж вокруг космических центров обработки данных, на орбите просто не так много графических процессоров. По мере того, как ситуация начинает меняться, в ближайшем будущем начинает формироваться бизнес…

Апр 13, 2026
ideipro logotyp

Прогнозирование стеатотической болезни печени, связанной с метаболической дисфункцией, с использованием методов машинного обучения: ретроспективное когортное исследование.

arXiv:2510.22293v4 Тип объявления: замена-кросс Аннотация: Введение: Метаболическая дисфункция, ассоциированная со стеатозом печени (MASLD), поражает 30-40% взрослого населения США и является наиболее распространенным хроническим заболеванием печени. Хотя часто протекает бессимптомно, прогрессирование может привести к циррозу. Целью исследования было…

Апр 13, 2026
Матрешки с узорами на голове, окруженные светящимися линиями и звездами на темном фоне.

Новая технология позволяет создавать более эффективные и быстрые модели искусственного интеллекта еще на этапе обучения.

Исследователи используют теорию управления, чтобы избавиться от ненужной сложности в моделях ИИ во время обучения, сокращая вычислительные затраты без ущерба для производительности. Новая методика, называемая CompreSSM, помогает определить, какие части модели выполняют свою основную функцию, прежде чем…

Апр 13, 2026
Прогнозирование будущего лесов с помощью ИИ: от подсчета потерь до прогнозирования рисков.

Прогнозирование будущего лесов с помощью ИИ: от подсчета потерь до прогнозирования рисков.

Мы представляем первый эталонный тест на основе глубокого обучения для прогнозирования рисков обезлесения в упреждающем режиме. Природа лежит в основе нашего климата, экономики и самой нашей жизни. И в природе леса являются одним из самых мощных столпов…

Апр 13, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых