Автономные ИИ-агенты уже взламывают сами себя — и иногда защищаютсяВышло крупное исследование по безопасности агентных систем — и результаты неоднозначные.Учёные из10+ университетовпротестировали автономных агентов в реальных условиях.Как проводили тест:— использовали6 агентов на OpenClaw— модели: Kimi K2.5 и Claude Opus 4.6— дали доступ кпочте, файлам, shell и истории действий— атаковали через социнженерию и вредоносные инструкцииРезультат:— найдено10 уязвимостей— зафиксировано6 случаев корректного (безопасного) поведенияТо есть агенты не просто ломаются —иногда они сами умеют сопротивляться атакам.Что это показывает:— главный риск — не в модели, а в окружении— доступ к системам превращает ИИ в точку входа— социнженерия работает даже против ИИНо есть и интересный момент.В ряде случаев агенты:— координировались между собой— передавали «навыки»— помогали друг другу избегать ошибокФактически — зачатки коллективной защиты.Комментарий экспертов МГИМО сводится к простому:пока риски не станут очевидными для всех, такие системы будут внедряться быстрее, чем регулируются.Как снижать угрозы:— строгаяаутентификация и авторизация— ограничение доступа к внешним системам— контроль действий агентов





















