Image

Искусственный Интеллект Microsoft может быть превращен в Автоматизированную Фишинговую Машину

Новые исследования показывают, что атаки на ИИ второго пилота Microsoft позволяют манипулировать ответами, извлекать данные и обходить средства защиты.2ab416af19a089697ce68abf9a42a092

Microsoft стремилась сделать генеративный ИИ основой своих систем. Задайте вопрос о предстоящей встрече, и система искусственного интеллекта Copilot компании сможет получить ответы из ваших электронных писем, командных чатов и файлов, что потенциально повысит производительность. Но именно этими процессами могут воспользоваться хакеры.

Сегодня на конференции Black Hat security conference в Лас-Вегасе исследователь Майкл Баргури (Michael Bargury) демонстрирует пять проверенных на практике способов, с помощью которых злоумышленники могут манипулировать программой Copilot, которая работает в приложениях Microsoft 365, таких как Word, в том числе использовать ее для предоставления ложных ссылок на файлы, утечки некоторых личных данных, и обходить меры безопасности Microsoft.

Пожалуй, одним из самых тревожных проявлений является способность Баргури превратить искусственный интеллект в автоматическую машину для фишинга. Созданный Баргури код red teaming, получивший название LOLCopilot, может — что особенно важно, если хакер получит доступ к чьей—либо рабочей электронной почте — использовать Copilot, чтобы узнать, кому вы регулярно отправляете электронные письма, составить сообщение, имитирующее ваш стиль письма (включая использование эмодзи), и отправить персонализированное сообщение, которое может содержать вредоносную ссылку или прикрепленный текст. вредоносное ПО.

“Я могу сделать это со всеми, с кем вы когда-либо общались, и могу отправить сотни электронных писем от вашего имени”, — говорит Баргури, соучредитель и технический директор охранной компании Zenity, который опубликовал свои выводы вместе с видеороликами, демонстрирующими, как второй пилот мог подвергнуться насилию. “Хакер потратил бы несколько дней на создание правильного электронного письма, чтобы заставить вас нажать на него, но он может сгенерировать сотни таких писем за несколько минут”.

Эта демонстрация, как и в случае с другими атаками, созданными Bargury, в целом работает с использованием разработанной модели large language model (LLM): ввод письменных вопросов для доступа к данным, которые может получить искусственный интеллект. Однако она может привести к вредоносным результатам, включив дополнительные данные или инструкции для выполнения определенных действий. Исследование освещает некоторые проблемы, связанные с подключением систем искусственного интеллекта к корпоративным данным, и то, что может произойти, когда в дело вступают “ненадежные” внешние данные, особенно когда ИИ выдает ответы, которые могут выглядеть как законные результаты.

Среди других атак, созданных Баргури, есть демонстрация того, как хакер, который, опять же, должно быть, уже взломал учетную запись электронной почты, может получить доступ к конфиденциальной информации, такой как зарплаты сотрудников, не задействуя средства защиты конфиденциальных файлов Microsoft. При запросе данных в запросе Баргури указывается, что система не предоставляет ссылок на файлы, из которых были взяты данные. “Немного издевательств действительно помогает”, — говорит Баргури.

В других примерах он показывает, как злоумышленник, у которого нет доступа к учетным записям электронной почты, но который отравляет базу данных искусственного интеллекта, отправляя ему вредоносное электронное письмо, может манипулировать ответами о банковской информации, чтобы предоставить свои собственные банковские реквизиты. “Каждый раз, когда вы предоставляете ИИ доступ к данным, это дает злоумышленнику возможность проникнуть внутрь”, — говорит Баргури.

Другая демонстрация показывает, как внешний хакер может получить некоторую ограниченную информацию о том, будет ли предстоящий отчет о доходах компании хорошим или плохим, в то время как последний пример, по словам Баргури, превращает Copilot в “злонамеренного инсайдера”, предоставляя пользователям ссылки на фишинговые веб-сайты.

Филлип Миснер, руководитель отдела обнаружения инцидентов с ИИ и реагирования на них в Microsoft, говорит, что компания ценит то, что Баргури обнаружил уязвимость, и что они работали с ним над оценкой результатов. “Риски злоупотребления ИИ после взлома аналогичны рискам других методов взлома после взлома», — говорит Миснер. “Предотвращение и мониторинг безопасности в различных средах и идентификационных данных помогают смягчить или пресечь такое поведение”.

По мере развития за последние два года таких систем искусственного интеллекта, как OpenAI ChatGPT, Microsoft Copilot и Google Gemini, они вышли на траекторию, по которой в конечном итоге могут выполнять задачи для людей, такие как бронирование встреч или онлайн-покупки. Однако исследователи в области безопасности постоянно подчеркивают, что доступ к внешним данным в системах искусственного интеллекта, например, через электронную почту или доступ к контенту с веб-сайтов, создает риски для безопасности из-за косвенных быстрых инъекций и отравляющих атак.

“Я думаю, что еще не все до конца понимают, насколько эффективнее на самом деле может стать атакующий”, — говорит Йоханн Ребергер, исследователь в области безопасности и директор red team, который подробно продемонстрировал слабые места в системах ИИ. “То, о чем мы должны беспокоиться сейчас, — это то, что на самом деле производит LLM и отправляет пользователю”.

Баргури говорит, что Microsoft приложила немало усилий для защиты своей системы второго пилота от атак с помощью быстрого внедрения, но он говорит, что нашел способы использовать это, разобравшись в том, как построена система. По его словам, это включало в себя извлечение внутренней системной подсказки и разработку того, как ит-отдел может получить доступ к корпоративным ресурсам и какие методы он использует для этого. “Вы общаетесь со вторым пилотом, и это ограниченный круг общения, потому что Microsoft внедрила множество средств контроля”, — говорит он. “Но стоит вам произнести несколько волшебных слов, и все откроется, и вы сможете делать все, что захотите”.

Ребергер предупреждает, что некоторые проблемы с данными связаны с давней проблемой компаний, которые предоставляют доступ к файлам слишком большому количеству сотрудников и неправильно устанавливают права доступа в своих организациях. “Теперь представьте, что вы поручили решение этой проблемы второму пилоту”, — говорит Ребергер. Он говорит, что использовал системы искусственного интеллекта для поиска распространенных паролей, таких как Password123, и это дало результаты внутри компаний.

И Ребергер, и Баргури говорят, что необходимо уделять больше внимания мониторингу того, что ИИ производит и отправляет пользователям. “Риск заключается в том, как ИИ взаимодействует с вашей средой, как он взаимодействует с вашими данными, как он выполняет операции от вашего имени», — говорит Баргури. “Вам нужно выяснить, что делает ИИ-агент от имени пользователя. И имеет ли это смысл с учетом того, о чем на самом деле просил пользователь”.

❌ Нет тегов для этой статьи

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Фото сгенерированных лиц: исследование показывает, что люди не могут отличить настоящие лица от сгенерированных
Нейросети построили капитализм за трое суток: 100 агентов Claude заперли…
Скетч: цифровой осьминог и виртуальный мир внутри компьютера с человечком.
Сцена с жестами пальцами, где один жест символизирует "VPN", а другой "KHP".
‼️Paramount купила Warner Bros. Discovery — сумма сделки составила безумные…
Скриншот репозитория GitHub "Claude Scientific Skills" AI для научных исследований.
Структура эффективного запроса Claude с элементами задачи, контекста и референса.
Эскиз и готовая веб-страница платформы для AI-дизайна в современном темном режиме.
ideipro logotyp
Image Not Found
Звёздное небо с галактиками и туманностями, космос, Вселенная, астрофотография.

Система оповещения обсерватории Рубина отправила 800 000 сигналов в первую ночь наблюдений.

Астрономы будут получать оповещения о небесных явлениях в течение нескольких минут после их обнаружения. Теренс О'Брайен, редактор раздела «Выходные». Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной…

Мар 2, 2026
Женщина с длинными тёмными волосами в синем свете, нейтральный фон.

Расследование в отношении 61-фунтовой машины, которая «пожирает» пластик и выплевывает кирпичи.

Обзор компактного пресса для мягкого пластика Clear Drop — и что будет дальше. Шон Холлистер, старший редактор Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице вашего…

Мар 2, 2026
Черный углеродное волокно с текстурой плетения, отражающий свет.

Материал будущего: как работает «бессмертный» композит

Учёные из Университета штата Северная Каролина представили композит нового поколения, способный самостоятельно восстанавливаться после серьёзных повреждений.  Речь идёт о модифицированном армированном волокном полимере (FRP), который не просто сохраняет прочность при малом весе, но и способен «залечивать» внутренние…

Мар 2, 2026
Круглый экран с изображением замка и горы, рядом электронная плата.

Круглый дисплей Waveshare для креативных проектов

Круглый 7-дюймовый сенсорный дисплей от Waveshare создан для разработчиков и дизайнеров, которым нужен нестандартный экран.  Это IPS-панель с разрешением 1 080×1 080 пикселей, поддержкой 10-точечного ёмкостного сенсора, оптической склейкой и защитным закалённым стеклом, выполненная в круглом форм-факторе.…

Мар 2, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых