Британские активисты бьют тревогу из-за сообщения о плане Meta использовать ИИ для проверки рисков
Ofcom «принимает во внимание опасения», высказанные после заявления о том, что до 90% оценок рисков будут проводиться с помощью ИИ
Активисты, выступающие за безопасность в Интернете, призвали британский регулятор в сфере коммуникаций ограничить использование искусственного интеллекта при оценке важнейших рисков после сообщения о том, что Meta Марка Цукерберга планирует автоматизировать проверки.
Ofcom заявил, что «принимает во внимание опасения», высказанные в письме активистов, после сообщения в прошлом месяце о том, что до 90% всех оценок рисков у владельца Facebook, Instagram и WhatsApp вскоре будут проводиться с помощью искусственного интеллекта.
Платформы социальных сетей обязаны в соответствии с Законом Великобритании о безопасности в Интернете оценивать, какой вред может быть нанесен их сервисам, и как они планируют смягчить этот потенциальный вред – с особым акцентом на защиту детей-пользователей и предотвращение появления незаконного контента. Процесс оценки риска рассматривается как ключевой аспект закона.
В письме генеральному директору Ofcom Мелани Доус такие организации, как Molly Rose Foundation, NSPCC и Internet Watch Foundation, описали перспективу оценки рисков с использованием ИИ как «шаг назад и крайне тревожный».
Они заявили: «Мы призываем вас публично заявить, что оценки риска обычно не будут считаться «подходящими и достаточными», стандартом, требуемым… законом, если они были полностью или преимущественно произведены посредством автоматизации».
В письме также содержится призыв к надзорному органу «оспорить любое предположение о том, что платформы могут смягчить свои процессы оценки рисков».
Представитель Ofcom заявил: «Мы ясно дали понять, что службы должны сообщать нам, кто завершил, рассмотрел и одобрил их оценку риска. Мы рассматриваем опасения, высказанные в этом письме, и ответим в установленном порядке».
Мета заявила, что в письме намеренно искажен подход компании к вопросам безопасности, хотя она привержена высоким стандартам и соблюдению нормативных требований.
«Мы не используем ИИ для принятия решений о рисках», — заявил представитель Meta. «Вместо этого наши эксперты создали инструмент, который помогает командам определять, когда к определенным продуктам применяются юридические и политические требования. Мы используем технологию, контролируемую людьми, для улучшения нашей способности управлять вредоносным контентом, и наши технологические достижения значительно улучшили результаты безопасности».
Фонд Молли Роуз организовал письмо после того, как в прошлом месяце американская вещательная компания NPR сообщила, что обновления алгоритмов Meta и новые функции безопасности будут в основном утверждаться системой искусственного интеллекта и больше не будут подвергаться тщательной проверке со стороны сотрудников.
По словам одного из бывших руководителей Meta, который поговорил с NPR анонимно, это изменение позволит компании быстрее запускать обновления приложений и функции в Facebook, Instagram и WhatsApp, но создаст «более высокие риски» для пользователей, поскольку вероятность предотвращения потенциальных проблем до выпуска нового продукта на рынок снижается.
NPR также сообщило, что Meta рассматривает возможность автоматизации проверок в таких деликатных областях, как риск для молодежи и мониторинг распространения ложной информации.
Источник: www.theguardian.com



























