Apple подписала добровольное обязательство Белого дома по разработке безопасного и заслуживающего доверия искусственного интеллекта, говорится в пресс-релизе, опубликованном в пятницу. Вскоре компания внедрит в свои основные продукты технологию генеративного искусственного интеллекта Apple Intelligence, которая позволит 2 миллиардам пользователей Apple использовать генеративный искусственный интеллект.
Apple присоединится к 15 другим технологическим компаниям, включая Amazon, Anthropic, Google, Inflection, Meta, Microsoft и OpenAI, которые в июле 2023 года приняли основные правила Белого дома по разработке генеративного искусственного интеллекта. В то время Apple не раскрывала, насколько глубоко она планирует внедрить искусственный интеллект в iOS. Но на конференции WWDC в июне мы услышали, что Apple делает все возможное для создания искусственного интеллекта, начиная с партнерства, которое позволит внедрить ChatGPT в iPhone. Поскольку Apple часто становится мишенью федеральных регуляторов, она хочет как можно раньше дать понять, что готова играть по правилам Белого дома в отношении ИИ — возможно, это попытка заручиться поддержкой до того, как начнутся какие-либо будущие битвы за регулирование ИИ.
Но насколько серьезны добровольные обязательства Apple перед Белым домом? Немного, но это только начало. Белый дом называет это “первым шагом” к тому, чтобы Apple и 15 других компаний в области искусственного интеллекта разработали безопасный и заслуживающий доверия искусственный интеллект. Вторым шагом стал октябрьский указ президента Байдена об ИИ, и в настоящее время через федеральные законодательные органы и законодательные собрания штатов проходит несколько законопроектов, направленных на улучшение регулирования моделей ИИ.
В соответствии с обязательством, компании, занимающиеся ИИ, обещают использовать red-team (выступать в роли хакера-противника для стресс-тестирования мер безопасности организации). Моделирует ИИ перед публичным выпуском и делится этой информацией с общественностью. Добровольное обязательство Белого дома также требует от компаний, занимающихся ИИ, сохранять конфиденциальность в отношении веса неизданных моделей ИИ. Apple и другие компании соглашаются работать с весами моделей ИИ в защищенных средах, ограничивая доступ к весам моделей как можно меньшим числом сотрудников. И, наконец, компании, работающие с ИИ, соглашаются разрабатывать системы маркировки контента, такие как водяные знаки, чтобы помочь пользователям отличить то, что создано ИИ, а что нет.
Отдельно Министерство торговли сообщает, что вскоре выпустит отчет о потенциальных преимуществах, рисках и последствиях использования базовых моделей с открытым исходным кодом. ИИ с открытым исходным кодом все чаще становится политически значимым регулятивным полем битвы. Некоторые организации хотят ограничить доступность моделей для мощных моделей ИИ во имя безопасности. Однако это может существенно ограничить возможности стартапов и исследовательской экосистемы в области ИИ. Позиция Белого дома в этом вопросе может оказать существенное влияние на индустрию искусственного интеллекта в целом.
В Белом доме также отметили, что федеральные ведомства добились значительного прогресса в выполнении задач, поставленных октябрьским указом президента. На сегодняшний день федеральные агентства наняли более 200 сотрудников, связанных с ИИ, предоставили более 80 исследовательским группам доступ к вычислительным ресурсам и выпустили несколько фреймворков для разработки ИИ (правительству нравятся фреймворки).



























