Тарин Пламб

По мере того как модели становятся умнее и функциональнее, «инструменты», окружающие их, также должны развиваться. Эта «разработка инструментов» является продолжением разработки контекста, говорит соучредитель и генеральный директор LangChain Харрисон Чейз в новом эпизоде подкаста VentureBeat Beyond the Pilot. В то время как традиционные инструменты для ИИ, как правило, ограничивали работу моделей в циклах и вызове инструментов, инструменты, специально разработанные для агентов ИИ, позволяют им взаимодействовать более независимо и эффективно выполнять длительные задачи.
Чейз также высказался по поводу приобретения OpenClaw компанией OpenAI, утверждая, что вирусный успех компании объясняется готовностью «дать волю фантазии» так, как не стала бы ни одна крупная лаборатория, и задаваясь вопросом, действительно ли это приобретение приближает OpenAI к безопасной корпоративной версии продукта. «Тенденция в разработке вспомогательных средств заключается в том, чтобы фактически дать самой большой языковой модели (LLM) больше контроля над контекстной инженерией, позволяя ей решать, что она видит, а что нет», — говорит Чейз. «Теперь идея долго работающего, более автономного помощника вполне жизнеспособна».
Отслеживание прогресса и поддержание согласованности
Хотя концепция, позволяющая LLM работать в цикле и вызывать инструменты, кажется относительно простой, её сложно надёжно реализовать, отметил Чейз. Какое-то время модели были «ниже порога полезности» и просто не могли работать в цикле, поэтому разработчики использовали графы и писали цепочки, чтобы обойти это ограничение. Чейз привёл в пример AutoGPT — когда-то самый быстрорастущий проект на GitHub — как показательный пример: та же архитектура, что и у современных лучших агентов, но модели ещё не были достаточно хороши, чтобы надёжно работать в цикле, поэтому проект быстро сошёл на нет. Но по мере совершенствования LLM команды могут создавать среды, где модели могут работать в цикле и планировать на более длительные горизонты, и они могут постоянно улучшать эти среды. Ранее, по словам Чейза, «вы не могли вносить улучшения в среду, потому что вы не могли фактически запустить модель в ней». Решением LangChain стали Deep Agents, настраиваемая универсальная среда. Созданная на основе LangChain и LangGraph, она обладает возможностями планирования, виртуальной файловой системой, управлением контекстом и токенами, выполнением кода, а также функциями навыков и памяти. Кроме того, она может делегировать задачи субагентам; эти субагенты специализируются на различных инструментах и конфигурациях и могут работать параллельно. Контекст также изолирован, что означает, что работа субагента не засоряет контекст основного агента, а большой контекст подзадачи сжимается в один результат для повышения эффективности использования токенов. Все эти агенты имеют доступ к файловым системам, объяснил Чейз, и могут, по сути, создавать списки дел, которые они могут выполнять и отслеживать во времени. «Когда процесс переходит к следующему шагу, ко второму, третьему или четвертому шагу из 200-шагового процесса, у него есть способ отслеживать свой прогресс и сохранять эту согласованность», — сказал Чейз. «По сути, все сводится к тому, чтобы позволить LLM записывать свои мысли по мере выполнения». Он подчеркнул, что системы должны быть спроектированы таким образом, чтобы модели могли сохранять согласованность при выполнении длительных задач и были «податливыми» к тому, чтобы модели сами решали, когда сжимать контекст в точках, которые они считают «выгодными». Кроме того, предоставление агентам доступа к интерпретаторам кода и инструментам BASH повышает гибкость. А предоставление агентам навыков, а не просто инструментов, загруженных заранее, позволяет им загружать информацию, когда она им необходима. «Таким образом, вместо того, чтобы жестко закодировать все в одну большую системную подсказку, — объяснил Чейз, — можно использовать меньшую системную подсказку: „Это основная основа, но если мне нужно сделать X, позвольте мне прочитать навык для X. Если мне нужно сделать Y, позвольте мне прочитать навык для Y“». По сути, проектирование контекста — это «очень сложный» способ сказать: что видит LLM? Потому что это отличается от того, что видят разработчики, отметил он. Когда разработчики-люди могут анализировать трассировки агентов, они могут представить себя на месте ИИ и ответить на такие вопросы, как: Что представляет собой системная подсказка? Как она создается? Она статична или заполняется? Какие инструменты есть у агента? Когда он вызывает инструмент и получает ответ, как он представляется? «Когда агенты ошибаются, они ошибаются, потому что у них нет правильного контекста; когда они добиваются успеха, они добиваются успеха, потому что у них есть правильный контекст», — сказал Чейз. «Я думаю о контекстной инженерии как о предоставлении нужной информации в нужном формате магистру права в нужное время». Послушайте подкаст, чтобы узнать больше о:
Как LangChain построила свою архитектуру: LangGraph в качестве основного элемента, LangChain в центре, Deep Agents сверху.
Почему песочницы для кода станут следующим прорывом.
Как будет развиваться другой тип пользовательского опыта по мере того, как агенты будут работать с более длительными интервалами (или непрерывно).
Почему отслеживание и наблюдаемость являются ключевыми факторами для создания действительно работающего агента.
Вы также можете слушать и подписываться на Beyond the Pilot на Spotify , Apple или на любой другой платформе, где вы слушаете подкасты.
Подпишитесь, чтобы получать самые свежие новости!
Подробные аналитические данные для руководителей предприятий в области искусственного интеллекта, данных и безопасности.
Отправляя свой адрес электронной почты, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности.
Получайте обновления ! Вы подписаны! Наши последние новости скоро поступят на вашу электронную почту.
Источник: venturebeat.com





















