Image

Как управлять интернетом вещей с помощью LLM

ad945edbbf28ef5ed7c7f4b87457e64c

Мы много говорим о больших языковых моделях и умном доме, но до реальной работы с железом дело доходит редко. В мире IoT разные микроконтроллеры, датчики и протоколы живут по своим правилам. LLM охотно отвечает на вопросы, но не умеет без боли договориться с устройствами, которые то теряют связь, то выдают данные в неожиданных форматах. Авторы работы IoT‑MCP предлагают недостающий мост — аккуратный, стандартизированный и быстрый. Он делает так, чтобы LLM могла общаться с IoT без кучи кастомных скриптов и хрупких интеграций.

Рабочий процесс IoT-MCP: от запроса LLM до чтения сенсоров и возврата данных
Рабочий процесс IoT-MCP: от запроса LLM до чтения сенсоров и возврата данных

Что придумали авторы

В основе — Model Context Protocol. Он описывает инструменты и их контекст так, чтобы LLM могла выбирать и вызывать нужные действия. IoT‑MCP переносит эту идею в реальный мир датчиков: архитектура делится на три понятных слоя — Local Host, Datapool & Connection Server и IoT‑устройства. Такой разрыв ответственности — главный инженерный выигрыш. Один слой думает и выбирает, второй держит соединения и очередь запросов, третий читается с датчиков и возвращает данные.

Шесть семейств микроконтроллеров, с которыми работал IoT‑MCP
Шесть семейств микроконтроллеров, с которыми работал IoT‑MCP

Как это работает изнутри

  • На локальном хосте рядом с LLM живут узкоспециализированные MCP‑серверы. Каждый отвечает за свою группу сенсоров, чтобы LLM без путаницы выбирала нужный инструмент. Сервер формирует компактную JSON‑инструкцию с командой, длительностью и интервалом.

  • Datapool & Connection Server сидит между «мозгом» и железом. Он присваивает уникальные ID запросам, буферизует их, сглаживает обрывы связи и масштабирует параллельные операции. Это избавляет MCU от тяжёлой логики и спасает диалоги с LLM от таймаутов.

  • На устройствах — лёгкие микросервисы: подключаются по Wi‑Fi/Bluetooth/I2C, опрашивают периферию и возвращают ответ с метками времени, типом сенсора и данными. Добавить новый датчик — не переписывать всё с нуля, а расширить набор микросервисов.

Что и как проверяли

Авторы не ограничились демо. Они предложили собственный бенчмарк IoT‑MCP Bench: 114 базовых задач и 1 140 усложнённых вариантов. Сценарии варьируются от простых чтений до композиций, где нужно объединять, фильтровать и интерпретировать данные, а также справляться с неоднозначными формулировками промтов. Три ключевые метрики — успешность вызова инструмента, среднее время ответа и пиковое потребление памяти на MCU. Плюс испытания на устойчивость, конкуренцию запросов и стабильность деплоя.

Как из простого чтения DHT11 вырастает последовательность всё более сложных задач
Как из простого чтения DHT11 вырастает последовательность всё более сложных задач

Что показали эксперименты

  • 100% успешных вызовов инструментов на базовых задачах. Это важный сигнал: MCP‑слой и связывание с железом настроены надежно.

  • Средняя задержка 205 мс. Основная доля времени уходит на проход через Connection Server и обмен с MCU. В idle‑режиме сеть сама по себе «стоит» ~128 мс.

  • Пиковая память на устройствах — в среднем 74 КБ, а в простое около 51 КБ. Это оставляет запас под параллельные запросы без внезапных «затыков».

  • Устойчивость к промтам на сложных задачах — 99%. Чаще всего спотыкаются датчики LTR390 и MPU6050 в сценариях с множественными чтениями и режимом «прочитать всё».

Время отклика: вклад MCP‑сервера и Connection Server с MCU; пунктир — среднее idle‑время
Время отклика: вклад MCP‑сервера и Connection Server с MCU; пунктир — среднее idle‑время
Пиковая память на MCU; пунктир — среднее потребление в простое
Пиковая память на MCU; пунктир — среднее потребление в простое

Кросс‑модели и параллельные запросы

Система протестирована с разными LLM: лучшая стабильность у Claude 3.5 (Haiku и Sonnet). При переходе на DeepSeek V3 и GPT‑4.1 успешность заметно падает — до примерно 77% и 84% от уровня Claude, что объясняют различиями в трактовке параметров и соглашениях по вызовам инструментов. При параллельной нагрузке на некоторых датчиках задержка растёт плавно, масштабирование сохраняется до четырёх одновременных задач без резких провалов.

Слева — успешность по моделям, справа — задержка при параллельных задачах
Слева — успешность по моделям, справа — задержка при параллельных задачах

Полевые испытания

Самое ценное — реальный деплой. В течение 12 часов работали шесть контроллеров ESP32‑S3 с семью типами сенсоров. Соединения восстанавливались автоматически после обрывов питания и сети, данные шли непрерывно. Это уже похоже на зрелую инженерную систему, а не на лабораторный прототип.

12‑часовой прогон: 13 сенсоров (7 типов) на 6 контроллерах стабильно отправляют данные
12‑часовой прогон: 13 сенсоров (7 типов) на 6 контроллерах стабильно отправляют данные

Итог

Сегодня IoT‑MCP ориентирован на сенсоры, не на актуаторы. Управление устройствами и замкнутый контур — следующий шаг. Ещё одно направление — автоматическая композиция рабочих процессов: когда LLM не просто вызывает инструмент, а строит план, выбирает стратегии отказоустойчивости и оптимизирует стоимость и задержку. Наконец, безопасность: с ростом масштаба нужны механизмы авторизации, троттлинга и мягкой деградации.

Если коротко, IoT‑MCP снимает главную боль интеграций: разрывает монолит на ясные роли, стандартизирует инструменты для LLM и упрощает масштабирование на разные микроконтроллеры и датчики. Плюс предлагает единый способ оценки: от семантики вызовов до системных метрик. 100% успешности инструментальных вызовов, 205 мс задержки и 74 КБ пика памяти — показатели, с которыми уже можно строить производственные сценарии мониторинга и постепенно двигаться к управлению.

📜 Полная статья

💾 Код

***

Если вам интересна тема ИИ, подписывайтесь на мой Telegram‑канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.

Источник: habr.com

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Дифференциально приватное машинное обучение в масштабе с использованием JAX-Privacy
dummy-img
Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.
Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.
Под базельским концертным залом нашли жертв последней швейцарской чумы. Большинство из них умерли в юном возрасте
СОСТОЯЛОСЬ ЗАСЕДАНИЕ МЕТОДИЧЕСКОГО СОВЕТА, ПОСВЯЩЕННОЕ ПОКОЛЕНИЮ «РОЖДЕННЫХ ЦИФРОВЫМИ»
СОСТОЯЛОСЬ ЗАСЕДАНИЕ МЕТОДИЧЕСКОГО СОВЕТА, ПОСВЯЩЕННОЕ ПОКОЛЕНИЮ «РОЖДЕННЫХ ЦИФРОВЫМИ»
Биофизический мир внутри переполненной клетки
Появились новые доказательства того, как одиночество влияет на память в пожилом возрасте.
Image Not Found
Дифференциально приватное машинное обучение в масштабе с использованием JAX-Privacy

Дифференциально приватное машинное обучение в масштабе с использованием JAX-Privacy

Мы объявляем о выпуске JAX-Privacy 1.0, библиотеки для машинного обучения с дифференциальной приватностью, использующей высокопроизводительную вычислительную библиотеку JAX. Быстрые ссылки GitHub Делиться Скопировать ссылку × От персонализированных рекомендаций до научных достижений, модели ИИ помогают улучшать жизнь и…

Апр 21, 2026
dummy-img

Следующий этап развития Agents SDK | OpenAI

Обновленный SDK для агентов помогает разработчикам создавать агентов, которые могут проверять файлы, выполнять команды, редактировать код и работать над долгосрочными задачами в контролируемых изолированных средах. Мы представляем новые возможности в Agents SDK (открывается в новом окне) ,…

Апр 21, 2026
Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.

Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.

Тарин Пламб CleoP создан с помощью Midjourney. «Агенты ИИ могут взаимодействовать друг с другом, но не могут мыслить вместе. Это огромная разница и узкое место для систем следующего поколения», — говорит Виджой Пандей, старший вице-президент и генеральный…

Апр 21, 2026
Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.

Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.

Тарин Пламб CleoP создан с помощью Midjourney. «Агенты ИИ могут взаимодействовать друг с другом, но не могут мыслить вместе. Это огромная разница и узкое место для систем следующего поколения», — говорит Виджой Пандей, старший вице-президент и генеральный…

Апр 21, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых