Генеральный директор OpenAI Сэм Альтман говорит, что OpenAI работает с Институтом безопасности искусственного интеллекта США, федеральным правительственным органом, который занимается оценкой и устранением рисков, связанных с платформами искусственного интеллекта, над соглашением о предоставлении раннего доступа к своей следующей крупной модели генеративного искусственного интеллекта для тестирования безопасности.
Объявление, которое Альтман сделал в своем посте на X поздно вечером в четверг, не содержало подробностей. Но это — наряду с аналогичной сделкой с британским органом по безопасности ИИ, заключенной в июне, — по-видимому, призвано опровергнуть мнение о том, что OpenAI снизила приоритетность работы по безопасности ИИ в погоне за более эффективными и мощными технологиями генеративного ИИ.
В мае OpenAI фактически распустила подразделение, занимавшееся разработкой средств контроля, предотвращающих выход из строя “сверхразумных” систем искусственного интеллекта. В отчетах, в том числе и в наших, говорилось, что OpenAI отказалась от исследований в области безопасности в пользу запуска новых продуктов, что в конечном итоге привело к отставке двух соруководителей команды, Яна Лейке (который сейчас руководит исследованиями в области безопасности в стартапе Anthropic) и соучредителя OpenAI Ильи Суцкевера (который начал свою собственная компания по созданию искусственного интеллекта, ориентированная на безопасность, Safe Superintelligence Inc.).
В ответ на растущий поток критики OpenAI заявила, что отменит свои ограничительные положения о недопущении оскорблений, которые косвенно препятствуют раскрытию информации, и создаст комиссию по безопасности, а также выделит 20% своих ресурсов на исследования в области безопасности. (Расформированной команде по безопасности было обещано 20% вычислений OpenAI за ее работу, но в конечном итоге они этого так и не получили.) Альтман подтвердил обязательства по выплате 20% и подтвердил, что в мае OpenAI отменил условия о недопущении дискредитации для новых и существующих сотрудников.
Однако эти шаги не смогли успокоить некоторых наблюдателей, особенно после того, как OpenAI полностью укомплектовала комиссию по безопасности инсайдерами компании, включая Альтмана, а совсем недавно перевела топ—менеджера по безопасности искусственного интеллекта в другую организацию.
Пять сенаторов, включая Брайана Шатца, демократа с Гавайских островов, подняли вопросы о политике OpenAI в недавнем письме, адресованном Альтману. Директор по стратегии OpenAI Джейсон Квон ответил на это письмо сегодня, написав, что OpenAI “стремится внедрять строгие протоколы безопасности на каждом этапе нашего процесса”.
Сроки заключения соглашения OpenAI с Институтом безопасности искусственного интеллекта США кажутся немного подозрительными в свете того, что ранее на этой неделе компания одобрила Закон о будущем инноваций, предложенный Сенатом законопроект, который наделит Институт безопасности полномочиями исполнительного органа, устанавливающего стандарты и рекомендации для моделей искусственного интеллекта. Эти совместные действия могут быть восприняты как попытка регулирования или, по крайней мере, как проявление влияния OpenAI на разработку политики в области искусственного интеллекта на федеральном уровне.
Не зря Альтман входит в состав Совета по охране и защите искусственного интеллекта Министерства внутренней безопасности США, который предоставляет рекомендации по “безопасной разработке и внедрению ИИ” во всех критически важных инфраструктурах США. И в этом году OpenAI резко увеличила свои расходы на федеральное лоббирование, потратив 800 000 долларов за первые шесть месяцев 2024 года против 260 000 долларов за весь 2023 год.
Институт безопасности искусственного интеллекта США, расположенный в Национальном институте стандартов и технологий Министерства торговли, консультируется с консорциумом компаний, в который входят Anthropic, а также крупные технологические фирмы, такие как Google, Microsoft, Meta, Apple, Amazon и Nvidia. Отраслевой группе поручено работать над действиями, изложенными в октябрьском указе президента Джо Байдена об ИИ, включая разработку руководящих принципов по объединению ИИ в команды, оценке возможностей, управлению рисками, обеспечению безопасности и сохранности и нанесению водяных знаков на синтетический контент.



























