Око с небом в зрачке, табакерка и буквы "cr" внутри зрачка.

У Microsoft появился новый план, как в онлайн-среде доказать, что реально, а что — искусственный интеллект.

В новом предложении компаниям, работающим в сфере социальных сетей и искусственного интеллекта, предлагается внедрить строгие правила проверки, однако сама компания пока не взяла на себя обязательство следовать собственным рекомендациям.

Трубка, из которой клубами дыма вырываются значки учетных данных контента, на фоне круга, внутри которого находится голубое облачное небо в форме простого глаза, напоминающего «Ложное зеркало» Магритта.

Стефани Арнетт/MIT Technology Review | Adobe Stock

Обман с помощью искусственного интеллекта теперь пронизывает нашу онлайн-жизнь. Есть громкие случаи, которые легко заметить, например, когда представители Белого дома недавно опубликовали отредактированное изображение протестующего в Миннесоте, а затем высмеяли тех, кто задавал вопросы по этому поводу. В других случаях обман незаметно проникает в ленты социальных сетей и набирает просмотры, как, например, видеоролики, которые сейчас распространяют российские кампании влияния, чтобы отговорить украинцев от службы в армии.

Именно в этой неразберихе Microsoft представила план, которым поделилась с MIT Technology Review, о том, как доказать подлинность информации в интернете.

Недавно исследовательская группа по вопросам безопасности ИИ в компании оценила, насколько хорошо методы документирования цифровых манипуляций справляются с наиболее тревожными разработками в области ИИ на сегодняшний день, такими как интерактивные дипфейки и широко доступные гиперреалистичные модели. Затем группа рекомендовала технические стандарты, которые могут быть приняты компаниями, занимающимися ИИ, и платформами социальных сетей.

Чтобы понять, какой золотой стандарт продвигает Microsoft, представьте, что у вас есть картина Рембрандта, и вы пытаетесь задокументировать её подлинность. Вы можете описать её происхождение с помощью подробного списка мест, откуда картина бралась, и всех случаев, когда она переходила из рук в руки. Вы можете нанести водяной знак, невидимый для человека, но читаемый машиной. И вы можете отсканировать картину в цифровом виде и сгенерировать математическую подпись, подобную отпечатку пальца, на основе мазков кисти. Если вы покажете произведение в музее, скептически настроенный посетитель сможет изучить эти доказательства, чтобы убедиться в подлинности картины.

Все эти методы уже в той или иной степени используются для проверки контента в интернете. Microsoft оценила 60 различных комбинаций, моделируя, как каждая конфигурация будет работать в различных сценариях сбоев — от удаления метаданных до незначительного изменения или преднамеренной манипуляции контентом. Затем команда определила, какие комбинации дают надежные результаты, которые платформы могут уверенно демонстрировать пользователям в интернете, а какие настолько ненадежны, что могут вызвать больше путаницы, чем ясности.

Спросите ИИ. Почему это важно для вас? БЕТА-ВЕРСИЯ. Вот почему, по мнению ИИ, эта история может быть важна для вас. Это бета-версия, и ИИ выдает галлюцинации — может быть странно. Место, которое меня интересует, это . Узнайте больше о том, как мы используем ИИ.

Главный научный сотрудник компании Эрик Хорвиц говорит, что эта работа была инициирована следующими факторами: законодательные акты, такие как калифорнийский Закон о прозрачности ИИ, который вступит в силу в августе, и скорость развития ИИ, позволяющая с поразительной точностью объединять видео и голос.

«Это можно назвать саморегулированием», — сказал Хорвиц изданию MIT Technology Review. Но ясно, что он рассматривает эту работу как способ улучшить имидж Microsoft: «Мы также стремимся стать избранным, востребованным поставщиком для людей, которые хотят знать, что происходит в мире».

Тем не менее, Хорвиц отказался подтвердить, что Microsoft будет использовать собственные рекомендации Microsoft на всех своих платформах. Компания находится в центре гигантской экосистемы контента на основе ИИ: она управляет Copilot, сервисом, способным генерировать изображения и текст; управляет Azure, облачным сервисом, через который клиенты могут получить доступ к OpenAI и другим крупным моделям ИИ; владеет LinkedIn, одной из крупнейших в мире профессиональных платформ; и имеет значительную долю в OpenAI. Но когда его спросили о внутренней реализации, Хорвиц заявил: «В этом исследовании участвовали продуктовые группы и руководители по всей компании, чтобы сформировать планы развития продуктов и инфраструктуры, и наши инженерные команды принимают меры на основе результатов отчета».

Важно отметить, что у этих инструментов есть свои ограничения; точно так же, как они не скажут вам, что означает ваша картина Рембрандта, они не предназначены для определения точности контента. Они лишь показывают, был ли он подвергнут манипуляциям. Хорвиц говорит, что ему необходимо донести эту мысль до законодателей и других лиц, скептически относящихся к крупным технологическим компаниям как к арбитрам фактов.

«Речь не идёт о принятии решений о том, что правда, а что ложь, — сказал он. — Речь идёт о создании ярлыков, которые просто указывают людям, откуда что взялось».

Хани Фарид, профессор Калифорнийского университета в Беркли, специализирующийся на цифровой криминалистике, но не участвовавший в исследовании Microsoft, говорит, что если бы отрасль приняла разработанную компанией модель, обманывать общественность с помощью сфальсифицированного контента стало бы значительно сложнее. По его словам, искушенные люди или правительства могут пытаться обойти такие инструменты, но новый стандарт мог бы устранить значительную часть вводящей в заблуждение информации.

«Я не думаю, что это решит проблему, но, мне кажется, это существенно её уменьшит», — говорит он.

Тем не менее, есть основания рассматривать подход Microsoft как пример несколько наивного технооптимизма. Появляется все больше свидетельств того, что люди поддаются влиянию контента, созданного ИИ, даже зная, что он ложный. А в недавнем исследовании пророссийских видеороликов о войне на Украине, созданных ИИ, комментарии, указывающие на то, что видео были созданы с помощью ИИ, получили гораздо меньше откликов, чем комментарии, воспринимающие их как подлинные.

«Есть ли люди, которые, что бы вы им ни говорили, будут верить в то, во что верят?» — спрашивает Фарид. «Да». Но, добавляет он, «я думаю, что подавляющее большинство американцев и граждан по всему миру хотят знать правду».

Это желание не привело к срочным действиям со стороны технологических компаний. Google начал добавлять водяной знак к контенту, созданному с помощью его инструментов ИИ, в 2023 году, что, по словам Фарида, оказалось полезным в его расследованиях. Некоторые платформы используют C2PA, стандарт подтверждения происхождения контента, который Microsoft помогла запустить в 2021 году. Но весь набор изменений, предлагаемых Microsoft, какими бы мощными они ни были, может остаться лишь предложениями, если они угрожают бизнес-моделям компаний, занимающихся ИИ, или платформ социальных сетей.

Министерство внутренней безопасности США использует искусственный интеллект Google и Adobe для создания видеороликов. Читайте далее.

«Если такие люди, как Марк Цукерберг и Илон Маск, считают, что добавление меток „сгенерировано ИИ“ к чему-либо снизит вовлеченность, то, конечно же, у них есть стимул этого не делать», — говорит Фарид. Такие платформы, как Meta и Google, уже заявили, что будут добавлять метки к контенту, сгенерированному ИИ, но аудит, проведенный Indicator в прошлом году, показал, что только 30% тестовых публикаций в Instagram, LinkedIn, Pinterest, TikTok и YouTube были правильно помечены как сгенерированные ИИ.

Более решительные шаги в направлении проверки контента могут быть предприняты в связи с многочисленными законопроектами о регулировании ИИ, находящимися на рассмотрении по всему миру. Закон Европейского союза об ИИ, а также предлагаемые правила в Индии и других странах, обяжут компании, занимающиеся ИИ, требовать раскрытия информации о том, что контент был создан с помощью ИИ.

Как и следовало ожидать, одним из приоритетов Microsoft является участие в формировании этих правил. Компания вела лоббистскую деятельность во время разработки калифорнийского Закона о прозрачности ИИ, который, по словам Хорвица, сделал требования законодательства о том, как технологические компании должны раскрывать контент, созданный с помощью ИИ, «немного более реалистичными».

Но есть и другая, вполне обоснованная обеспокоенность по поводу того, что может произойти, если внедрение таких технологий проверки контента будет осуществлено некачественно. Законодатели требуют инструментов, способных проверять подлинность информации, но эти инструменты ненадежны. Если системы маркировки будут внедрены поспешно, применяться непоследовательно или часто давать неверные результаты, люди могут полностью им не доверять, и все усилия обернутся против самих разработчиков. Именно поэтому исследователи утверждают, что в некоторых случаях лучше вообще ничего не показывать, чем выносить вердикт, который может оказаться неверным.

Несовершенные инструменты также могут создать новые возможности для того, что исследователи называют социотехническими атаками. Представьте, что кто-то берет реальное изображение напряженного политического события и использует инструмент искусственного интеллекта, чтобы изменить лишь незначительную часть пикселей изображения. Когда оно распространяется в интернете, платформы могут ошибочно классифицировать его как обработанное ИИ. Но сочетание инструментов проверки происхождения и водяных знаков позволило бы платформам уточнить, что контент был создан ИИ лишь частично, и указать, где были внесены изменения.

Закон Калифорнии о прозрачности в сфере ИИ станет первым серьезным испытанием этих инструментов в США, но его исполнение может быть оспорено указом президента Трампа, изданным в конце прошлого года, который направлен на ограничение регулирования ИИ на уровне штатов, «обременительного» для отрасли. Администрация также в целом заняла позицию против попыток борьбы с дезинформацией, и в прошлом году через DOGE она отменила гранты, связанные с дезинформацией. И, конечно же, официальные правительственные каналы в администрации Трампа распространяли контент, обработанный с помощью ИИ (например, MIT Technology Review сообщило, что Министерство внутренней безопасности использует видеогенераторы от Google и Adobe для создания контента, которым оно делится с общественностью).

Я спросил Хорвица, беспокоит ли его фейковый контент из этого источника так же сильно, как и контент из остальных социальных сетей. Сначала он отказался от комментариев, но затем сказал: «Правительства всегда были в стороне от тех секторов, которые стояли за различными видами манипулятивной дезинформации, и это происходит по всему миру».

Источник: www.technologyreview.com

✅ Найденные теги: Microsoft, Доказать, новости, Онлайн, План, Среде, У

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Спутниковая антенна в ночи с зелёной кометой в небе.
Акула в розовых кроссовках на пляже, пальмы и море на заднем плане.
Ветряные турбины в океане на фоне гор и неба. Экологическая энергия.
Дом на колесах в лесу с раскладными стульями и выдвижным тентом для кемпинга.
Морские водоросли на берегу, макросъемка природа.
Изображение смартфона с символом руки на фоне логотипов с замками и яблоками.
ideipro logotyp
Медицинский центр Голд-Кост расширит возможности оказания виртуальной медицинской помощи пациентам на дому.
5 полезных скриптов на Python для генерации синтетических данных
Image Not Found
Ветряные турбины в океане на фоне гор и неба. Экологическая энергия.

Морские платформы могут решить главную проблему ИИ

На фоне стремительного роста искусственного интеллекта всё острее встаёт проблема энергопотребления: только за 2025 год дата-центры израсходовали около 448 ТВт/ч — сопоставимо с годовым потреблением целой страны, например Германии. При этом нагрузка на электросети увеличивается, а общество…

Мар 19, 2026
Дом на колесах в лесу с раскладными стульями и выдвижным тентом для кемпинга.

Премиальный кемпер Airstream для двоих

Автодом Airstream Atlas 25RT на платформе Mercedes-Benz — это кемпер для комфортных путешествий вдвоём — от коротких выездов до полноценного отдыха на природе.  Внутреннее пространство организовано максимально рационально: здесь удобно готовить, отдыхать и жить без ощущения тесноты.…

Мар 19, 2026
Морские водоросли на берегу, макросъемка природа.

Биологи извлекли из бурой водоросли биоактивный сложный сахар

Талломы фукоидов Fucus distichus © Wikimedia Commons Ученые БФУ имени Иммануила Канта выделили из бурой водоросли полисахарид фукоидан, обладающий антиоксидантным и противомикробным действием. Он способен защищать клетки живых организмов от воздействия вредных свободных радикалов. Кроме того, эксперименты…

Мар 19, 2026
Изображение смартфона с символом руки на фоне логотипов с замками и яблоками.

Apple выпустила первое обновление для «фоновой безопасности» для iPhone, iPad и Mac, исправляющее ошибку в Safari.

Вкратце Источник изображения: Брайс Дурбин / TechCrunch Компания Apple выпустила первое обновление, предназначенное для устранения уязвимости в веб-браузере Safari на iPhone, iPad и Mac. Согласно новому уведомлению о безопасности, опубликованному во вторник, Apple сообщила, что исследователь безопасности…

Мар 19, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых