Image

Как ИИ-агенты учатся по видео на YouTube

c962b89d6e7b33e7961316d50d06efc8

ИИ-агенты обещают помочь нам в реальных приложениях: от настройки браузера до редактирования изображений и работы с медиаплеером. Но чтобы уверенно жать на нужные кнопки и не путать меню, им нужны тысячи качественных демонстраций, снятых прямо в целевых программах. С такими данными беда: готовые датасеты узкие и быстро устаревают, а синтетика часто проста и плохо совпадает с задачами. Авторы Watch & Learn предлагают новую идею: взять обучающие видео из интернета и превратить их в точные пошаговые сценарии для кликов, прокруток и ввода текста.

W&L преобразует веб‑масштабные видеодемонстрации людей в исполняемые UI‑сценарии, обеспечивая масштабируемое обучение с учителем и контекстные примеры для агентов, управляющих компьютером.
W&L преобразует веб‑масштабные видеодемонстрации людей в исполняемые UI‑сценарии, обеспечивая масштабируемое обучение с учителем и контекстные примеры для агентов, управляющих компьютером.

Находка в очевидном: учимся у YouTube

Ключевая инженерная мысль здесь — смотреть на проблему как на инверсную динамику: если даны два соседних кадра экрана, нужно восстановить действие, которое их связало. Это проще и надежнее, чем пытаться по одному кадру и тексту придумать, куда кликнуть. Авторы обучают специальную vision‑модель, которая по паре кадров предсказывает тип действия, координаты клика или движения мыши, а при вводе текста — сам текст. Без хрупких эвристик и без привязки к HTML.

Как устроен Watch & Learn

1) Учим «чувствовать» действие. Сначала собирают большой корпус переходов состояний: ~500k автоматических взаимодействий с живыми сайтами плюс 132k человеческих из Mind2Web — итого более 630k троек (экран до, действие, экран после). На них тренируют модель обратной динамики: энкодер SigLIP‑2 + несколько слоев Transformer, три головы на выходе — тип действия, координаты и текст. Координаты предсказывают как классы по сетке, что заметно повышает точность.

2) Добываем сценарии из видео. По описанию задачи ретривер ищет релевантные туториалы на YouTube. Видео фильтруются по кадрам (1 кадр/с): сохраняются чистые скринкасты с высоким качеством. Далее к каждой паре кадров применяется модель инверсной динамики, и из ролика получается исполняемая последовательность действий. Для инференса хранят лучшие видео под задачу; для обучения — весь прошедший пул.

Обзор метода: фреймворк превращает веб‑масштабные видео демонстраций в исполняемые сценарии для CUA. Сначала собирается датасет переходов состояний (скриншоты и действия) и обучается модель обратной динамики (IDM) для восстановления действий по последовательным кадрам; затем IDM применяется к учебным видео для извлечения пошаговых сценариев. Модуль поиска выбирает релевантные или общие демонстрации, используемые как примеры в контексте при инференсе и как обучающие данные для улучшения open-source CUA.
Обзор метода: фреймворк превращает веб‑масштабные видео демонстраций в исполняемые сценарии для CUA. Сначала собирается датасет переходов состояний (скриншоты и действия) и обучается модель обратной динамики (IDM) для восстановления действий по последовательным кадрам; затем IDM применяется к учебным видео для извлечения пошаговых сценариев. Модуль поиска выбирает релевантные или общие демонстрации, используемые как примеры в контексте при инференсе и как обучающие данные для улучшения open-source CUA.

3) Используем данные дважды. Сценарии идут и как примеры в контексте при решении задач, и как обучающие данные для SFT. В первом случае к шагам добавляют краткие рассуждения, во втором — просто пары «состояние — действие».

Что получилось на практике

За счёт этой цепочки удалось собрать 53 125 сценария по 69 приложениям — от браузеров и GIMP до VLC и системных утилит. На бенчмарке OSWorld‑Verified приросты стабильные.

  • In‑context для универсальных моделей: Gemini 2.5 Flash +3% (19 → 22), o3 +2.5% (21.8 → 24.3), Claude 4 Sonnet +1.6% (43.9 → 45.5).

  • Агентный стек Jedi: +2.2% (50.6 → 52.8).

  • Обучение открытых моделей: Qwen 2.5‑VL 7B — +11.1%. (1.9 → 13), UI‑TARS‑7B — +3.8% (27.3 → 31.1).

Качество разметки действий — ключ к успеху. На тесте Mind2Web точность действий у модели инверсной динамики — 91.6% против 82.7% у TongUI и 72.8% у базовых систем. Особенно сильны клики и прокрутка; ввод текста сложнее, но тоже на уровне. В абляциях заметно, что голые кадры почти не помогают, а структурированные действия дают стабильный плюс; короткие рассуждения добавляют ещё немного.

Где прирост больше

Максимальные выигрыши — в доменах с богатой библиотекой чётких туториалов: chrome, gimp, vlc. Там примеры информативны и хорошо совпадают с задачами. Скромнее — в vscode и задачах ОС, где много текста и кода, а также в интерфейсах с тонкими действиями вроде drag‑and‑drop, которые текущая модель действий не поддерживает.

Качественные примеры на OSWorld. Слева — сценарии из видео; справа показано, как без неё агенты ошибаются в привязке или планировании, а с ней — успешно решают задачу.
Качественные примеры на OSWorld. Слева — сценарии из видео; справа показано, как без неё агенты ошибаются в привязке или планировании, а с ней — успешно решают задачу.

Почему это важно

Работа показывает, что видео из интернета — полноценные источники исполняемых навыков для ИИ-агентов. Специализированная модель инверсной динамики снимает узкое место разметки и даёт данные, которые одинаково полезны и для in‑context, и для обучения. Это практичный путь к агентам, уверенно работающим в живых приложениях, без дорогой ручной разметки.

Что можно улучшить дальше

Логичные шаги — расширить репертуар действий (перетаскивания, комбинации клавиш), научиться лучше резать длинные ролики на задачи и добавить методы обучения с подкреплением поверх полученных сценариев. Масштаб самих видео тоже можно наращивать: как показывает кривая Qwen, после «критической массы» данные начинают работать особенно заметно.

📜 Полная статья

***

Если вам интересна тема ИИ, подписывайтесь на мой Telegram‑канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.

Источник: habr.com

✅ Найденные теги: Как, новости
Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Фото сгенерированных лиц: исследование показывает, что люди не могут отличить настоящие лица от сгенерированных
Нейросети построили капитализм за трое суток: 100 агентов Claude заперли…
Скетч: цифровой осьминог и виртуальный мир внутри компьютера с человечком.
Сцена с жестами пальцами, где один жест символизирует "VPN", а другой "KHP".
‼️Paramount купила Warner Bros. Discovery — сумма сделки составила безумные…
Скриншот репозитория GitHub "Claude Scientific Skills" AI для научных исследований.
Структура эффективного запроса Claude с элементами задачи, контекста и референса.
Эскиз и готовая веб-страница платформы для AI-дизайна в современном темном режиме.
ideipro logotyp
Image Not Found
Звёздное небо с галактиками и туманностями, космос, Вселенная, астрофотография.

Система оповещения обсерватории Рубина отправила 800 000 сигналов в первую ночь наблюдений.

Астрономы будут получать оповещения о небесных явлениях в течение нескольких минут после их обнаружения. Теренс О'Брайен, редактор раздела «Выходные». Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной…

Мар 2, 2026
Женщина с длинными тёмными волосами в синем свете, нейтральный фон.

Расследование в отношении 61-фунтовой машины, которая «пожирает» пластик и выплевывает кирпичи.

Обзор компактного пресса для мягкого пластика Clear Drop — и что будет дальше. Шон Холлистер, старший редактор Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице вашего…

Мар 2, 2026
Черный углеродное волокно с текстурой плетения, отражающий свет.

Материал будущего: как работает «бессмертный» композит

Учёные из Университета штата Северная Каролина представили композит нового поколения, способный самостоятельно восстанавливаться после серьёзных повреждений.  Речь идёт о модифицированном армированном волокном полимере (FRP), который не просто сохраняет прочность при малом весе, но и способен «залечивать» внутренние…

Мар 2, 2026
Круглый экран с изображением замка и горы, рядом электронная плата.

Круглый дисплей Waveshare для креативных проектов

Круглый 7-дюймовый сенсорный дисплей от Waveshare создан для разработчиков и дизайнеров, которым нужен нестандартный экран.  Это IPS-панель с разрешением 1 080×1 080 пикселей, поддержкой 10-точечного ёмкостного сенсора, оптической склейкой и защитным закалённым стеклом, выполненная в круглом форм-факторе.…

Мар 2, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых