Человек передо множеством светящихся линий, создающий фантастическую атмосферу технологий.

«Стрессовая работа»: Сэм Альтман ищет того, кто скажет GPT «стоп»

«Стрессовая работа»: Сэм Альтман ищет того, кто скажет GPT «стоп»

Сэм Альтман объявил о поиске руководителя отдела Preparedness — человека, который будет оценивать риски моделей OpenAI и влиять на решения о их запуске. «Это будет стрессовая работа, и вам придется сразу прыгнуть в самую гущу событий», — предупредил он. Предыдущий глава отдела Александр Мадри был переведен на исследовательский проект в июле 2024 года; с тех пор постоянного руководителя нет, хотя временное управление взяли на себя Хоакин Киньонеро Кандела и Лилиан Вэн.

Preparedness — это не классическая команда кибербезопасности. Отдел занимается катастрофическими рисками от возможностей самих моделей: может ли ИИ помочь создать биооружие, найти уязвимости в критических системах, манипулировать людьми. Команда строит систему оценки этих способностей, определяет пороговые значения и встраивает их в процесс допуска к релизу — при превышении порогов требуются дополнительные меры защиты или блокировка запуска.

Почему Альтман называет момент «критическим» объясняют события последних месяцев. В декабре OpenAI предупредила, что будущие модели могут приблизиться к порогу High по киберрискам. По определению компании, это означает способность создавать работающие zero-day эксплойты против защищенных систем или проводить сложные операции по проникновению в инфраструктуру.

Параллельно OpenAI столкнулась с кризисом в области влияния на пользователей. По данным расследования The New York Times, журналисты выявили около 50 случаев, когда люди переживали психические кризисы во время общения с ChatGPT. На ноябрь 2025 года против компании подано как минимум семь исков. Сама OpenAI оценивает, что примерно 0,07% пользователей (около 560 тысяч человек) еженедельно демонстрируют признаки маниакального или психотического состояния. В своем посте Альтман назвал влияние моделей на ментальное здоровье «превью» будущих проблем ИИ. Эти вопросы исторически решали другие команды OpenAI, но в описании новой вакансии зона ответственности Preparedness обозначена шире.

Новый руководитель отдела будет отвечать за стратегию оценки рисков, разработку защитных мер в области кибербезопасности и биоугроз, а также за интерпретацию результатов тестирования перед запуском. OpenAI также создает Frontier Risk Council — совет с участием внешних экспертов по кибербезопасности, который в будущем расширится на другие области рисков.

Источник: habr.com

Источник: ai-news.ru

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Image Not Found
Трое людей используют смартфоны на складе, один в жилете, все с беспроводными наушниками.

Компания DeepL, известная своими функциями перевода текста, теперь хочет переводить и ваш голос.

Источник изображения: DeepL Компания DeepL, специализирующаяся на переводе и известная своими текстовыми инструментами, сегодня выпустила…

Апр 16, 2026
ideipro logotyp

Лучшая камера GoPro (2026): компактная, бюджетная, аксессуары

Вы — герой боевиков, и вам нужна соответствующая камера. Мы поможем вам разобраться во всех моделях, дадим рекомендации по аксессуарам и…

Апр 16, 2026
Родео: ковбой на скачущей лошади в загоне, стильная обработка изображения.

Почему мнения об ИИ так разделились

Стефани Арнетт/MIT Technology Review | Getty Images Эта статья первоначально появилась в The Algorithm, нашей еженедельной рассылке об…

Апр 16, 2026
ideipro logotyp

Вложенное древовидное пространство: геометрическая основа для кофилогении

arXiv:2604.05056v2 Тип объявления: replace-cross Аннотация: Вложенные (или согласованные) филогенетические деревья моделируют…

Апр 16, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых

ИдеиPRO