
Коалиция некоммерческих организаций призывает правительство США немедленно приостановить использование Grok, чат-бота, разработанного компанией xAI Илона Маска, в федеральных ведомствах, включая Министерство обороны.
Открытое письмо, предоставленное TechCrunch эксклюзивно, появилось после целого ряда тревожных случаев поведения крупной языковой модели за последний год, включая недавнюю тенденцию, когда пользователи X просили Grok превращать фотографии реальных женщин, а в некоторых случаях и детей, в изображения сексуального характера без их согласия. Согласно некоторым сообщениям, Grok генерировал тысячи изображений откровенного характера без согласия каждый час, которые затем широко распространялись на X, социальной медиа-платформе Маска, принадлежащей xAI.
«Вызывает глубокую озабоченность тот факт, что федеральное правительство продолжает использовать продукт на основе ИИ с системными сбоями, приводящими к созданию изображений сексуального характера без согласия и материалов, связанных с сексуальным насилием над детьми», — говорится в письме, подписанном такими правозащитными группами, как Public Citizen, Center for AI and Digital Policy и Consumer Federation of America. «Учитывая указы, рекомендации администрации и недавно принятый закон Take It Down Act, поддержанный Белым домом, тревожно, что [Управление по бюджету и управлению] до сих пор не дало указаний федеральным агентствам вывести Grok из эксплуатации».
В сентябре прошлого года компания xAI достигла соглашения с Управлением общих служб (GSA), государственным закупочным органом, о продаже Grok федеральным агентствам, находящимся в ведении исполнительной власти. За два месяца до этого xAI — наряду с Anthropic, Google и OpenAI — заключила контракт с Министерством обороны на сумму до 200 миллионов долларов.
На фоне скандалов вокруг X в середине января министр обороны Пит Хегсет заявил, что Grok присоединится к Gemini от Google в работе внутри сети Пентагона, обрабатывая как секретные, так и несекретные документы, что, по мнению экспертов, представляет угрозу национальной безопасности.
Авторы письма утверждают, что Grok оказался несовместим с требованиями администрации к системам искусственного интеллекта. Согласно рекомендациям Управления по бюджету и управлению (OMB), системы, представляющие серьезные и предсказуемые риски, которые невозможно адекватно снизить, должны быть выведены из эксплуатации.
«Нас в первую очередь беспокоит то, что Grok довольно часто демонстрирует себя как небезопасная крупная языковая модель», — заявил TechCrunch Джей Би Бранч, представитель организации Public Citizen, выступающей за подотчетность крупных технологических компаний, и один из авторов письма. «Но у Grok также есть долгая история различных сбоев, включая антисемитские и сексистские высказывания, а также сексуализированные изображения женщин и детей».
После январских действий Grok, которые стали следствием серии инцидентов, включая публикацию антисемитских постов на X и использование термина «МехаГитлер», ряд правительств продемонстрировали нежелание взаимодействовать с этой компанией. Индонезия, Малайзия и Филиппины заблокировали доступ к Grok (впоследствии эти запреты были сняты), а Европейский союз, Великобритания, Южная Корея и Индия активно расследуют деятельность xAI и X в отношении конфиденциальности данных и распространения незаконного контента.
Письмо также появилось спустя неделю после того, как Common Sense Media, некоммерческая организация, занимающаяся обзорами медиа и технологий для семей, опубликовала разгромную оценку рисков, в которой говорится, что Grok входит в число наиболее опасных для детей и подростков. Можно утверждать, что, основываясь на выводах отчета — включая склонность Grok давать небезопасные советы, распространять информацию о наркотиках, создавать изображения насилия и сексуального характера, излагать теории заговора и создавать предвзятые материалы — Grok не так уж безопасен и для взрослых.
«Если вам известно, что крупная языковая модель признана или была признана небезопасной экспертами по безопасности ИИ, зачем, собственно, вам нужно, чтобы она обрабатывала самые конфиденциальные данные, которыми мы располагаем?» — сказал Бранч. «С точки зрения национальной безопасности это просто не имеет никакого смысла».
Эндрю Кристиансон, бывший сотрудник Агентства национальной безопасности и нынешний основатель Gobbi AI, платформы для создания агентов ИИ без использования кода в секретных средах, говорит, что использование LLM-систем с закрытым исходным кодом в целом представляет собой проблему, особенно для Пентагона.
«Закрытая модель весовых коэффициентов означает, что вы не можете заглянуть внутрь модели, вы не можете проверить, как она принимает решения», — сказал он. «Закрытый код означает, что вы не можете проверить программное обеспечение или контролировать, где оно работает. Пентагон переходит к закрытой модели по обоим пунктам, что является наихудшим возможным сочетанием для национальной безопасности».
«Эти агенты ИИ — не просто чат-боты, — добавил Кристиансон. — Они могут совершать действия, получать доступ к системам, перемещать информацию. Вам необходимо иметь возможность точно видеть, что они делают и как принимают решения. Открытый исходный код это обеспечивает. Проприетарный облачный ИИ — нет».
Риски использования некачественных или небезопасных систем ИИ выходят за рамки применения в сфере национальной безопасности. Бранч отметил, что магистерская программа, результаты которой, как было показано, носят предвзятый и дискриминационный характер, может также привести к непропорционально негативным последствиям для людей, особенно если она используется в ведомствах, занимающихся жилищным строительством, трудовыми отношениями или правосудием.
Хотя Управление по бюджету и управлению (OMB) еще не опубликовало свой сводный перечень примеров использования ИИ в федеральном секторе к 2025 году, TechCrunch проанализировал примеры использования Grok несколькими ведомствами, большинство из которых либо не используют Grok, либо не раскрывают информацию об использовании Grok. Помимо Министерства обороны, Министерство здравоохранения и социальных служб также, по-видимому, активно использует Grok, в основном для планирования и управления публикациями в социальных сетях, а также для создания первых черновиков документов, брифингов или других коммуникационных материалов.
Бранч указал на то, что, по его мнению, между Гроком и администрацией существует философское совпадение взглядов, как на причину игнорирования недостатков чат-бота.
«Грок позиционирует себя как сторонник „анти-прогрессивной“ модели риторики, и это соответствует философии нынешней администрации», — сказал Бранч. «Если у вас есть администрация, у которой были многочисленные проблемы с людьми, обвиняемыми в неонацизме или превосходстве белой расы, и при этом она использует модель риторики, связанную с таким поведением, я думаю, у нее может быть склонность к ее применению».
Это уже третье письмо коалиции после аналогичных обращений в августе и октябре прошлого года. В августе xAI запустила «пикантный режим» в Grok Imagine, что привело к массовому созданию дипфейков сексуального характера без согласия. TechCrunch также сообщил в августе, что частные переписки в Grok были проиндексированы поиском Google.
До октябрьского письма компанию Grok обвиняли в распространении дезинформации о выборах, включая ложные сроки внесения изменений в избирательные бюллетени и политические дипфейки. Компания xAI также запустила Grokipedia, которая, как выяснили исследователи, легитимизирует научный расизм, скептицизм в отношении ВИЧ/СПИДа и теории заговора о вакцинах.
Помимо немедленной приостановки федерального развертывания Grok, в письме содержится требование к Управлению по бюджету и управлению (OMB) провести официальное расследование нарушений безопасности Grok и выяснить, были ли проведены надлежащие процедуры надзора за чат-ботом. В нем также содержится просьба к агентству публично разъяснить, проводилась ли оценка Grok на соответствие указу Трампа, требующему от программ LLM быть объективными и нейтральными, и соответствовал ли он стандартам OMB по снижению рисков.
«Администрации необходимо сделать паузу и пересмотреть, соответствует ли компания Grok этим критериям», — сказал Бранч.
Издание TechCrunch обратилось за комментариями к xAI и OMB.
Источник: techcrunch.com



























