Image

Подключаем нейронки в n8n без иностранной карты

Сегодня многие AI-сервисы требуют наличия иностранной банковской карты или работы через зарубежные платежные системы. Это создает сложности для разработчиков из стран с региональными ограничениями.

В этой статье я покажу, как подключить нейросеть (инференс GPT и LLaMA) в n8n без использования иностранной карты и разберу работу с ней на простом примере.

Я использовал инструменты и сервисы нашей компании, поэтому статья получилась откровенно рекламной и содержащей не универсальный способ, а конкретную, узкую реализацию задачи. Надеюсь на ваше понимание в этом вопросе.

Подключать мы будем Amvera LLM Inference API, который предоставляет доступ к инференсу моделей GPT (GPT-5, GPT-4.1) и LLaMA (llama-8b, llama-70b) с оплатой в рублях. И для подключения использовать комьюнити-ноду, про создание которой писали в одной из прошлых статей на Хабр.

Как описал выше, подключать нейросеть мы будем к n8n, однако, благодаря открытому API, вы можете беспрепятственно использовать GPT и LLaMA в приложении любых типов: в боте, в любом веб-интерфейсе или приложении.

Что такое Amvera?

Amvera — облако для простого хостинга IT-сервисов (боты, сайты) с развертыванием через git push, также предлагающее вышеописанный Inference API.

После регистрации вы сразу получаете 111 рублей на баланс без дополнительных условий и возможность активировать бесплатные тестовые 20 000 токенов на месяц для любой модели.

Помимо этого, вы можете для каждого проекта совершенно бесплатно получить внешний домен с бесплатным SSL-сертификатом, использовать встроенный CI/CD и запускать код без настройки виртуальных машин.

Предоставляется именно собственный API для работы с моделями GPT и LLaMA от Amvera. Токен никак не относится к OpenAI и может использоваться только для Amvera LLM Inference API.

Развертывание n8n

Для начала нам необходимо развернуть n8n и получить доступ к его интерфейсу. n8n также доступен в Amvera как преднастроенный сервис. Развернуть его можно буквально в считанные минуты с минимальным количеством настроек.

Прежде всего необходимо зарегистрироваться в Amvera и открыть главную страницу проектов.

На ней будет доступна плитка с большим множеством преднастроенных сервисов:

Запуск n8n одной кнопкой
Запуск n8n одной кнопкой

Жмем на него, и сразу же открывается окно с настройками. В нем мы выбираем:

  1. Произвольное название проекта и тариф. Жмем далее.

  2. Конфигурация. Здесь можно ничего не менять кроме версии. Сразу жмем завершить.

Буквально за 20 секунд проект готов к запуску и ожидает вас во вкладке «Преднастроенные сервисы» главной страницы.

Открыть n8n можно, перейдя во вкладку «Домены» проекта.

Подключение ноды для работы с Amvera LLM Inference API

С 4 октября 2025 г. стала доступна комьюнити-нода для работы с API — n8n-nodes-amvera-inference. Подключить ее можно по инструкции.

Нода позволяет легко работать с API моделей LLM, непосредственно из n8n без написания http-запросов.

Получение токена

В настройках ноды выше, вам необходимо создать Credentials с токеном от API. Получить его можно также в ЛК Amvera.

Открываем соответствующую вкладку:

Подключаем инференс LLM
Подключаем инференс LLM

На открывшейся странице выбираем интересную нам модель и жмем кнопку справа «Подключить пакет токенов». Мы же подключим GPT-4.1.

Подключаем пакет токенов
Подключаем пакет токенов

Вы можете выбрать любой интересующий тариф. Для тестов можно воспользоваться бесплатными 20 000 токенами.

После приобретения пакета токенов, мы можем открыть страницу модели и скопировать токен. Именно его нужно вставлять в Credentials ноды (без Bearer).

Пример использования

Если вы корректно установили комьюнити-ноду, в списке доступных нод вашего воркфлоу должна появиться нода Amvera LLM.

Давайте проверим все на самом простом примере: чат-бот в n8n.

Весь воркфлоу состоит из триггер-ноды When chat message received и комьюнити-ноды Amvera LLM.

В настройках Messages комьюнити-ноды указываем {{ $json.chatInput }}, чтобы получать введенные сообщения пользователя в чате воркфлоу, режим вывода Ответ модели и Credentials с ранее полученным токеном.

Проверим:

Простейшее флоу n8n
Простейшее флоу n8n

Все работает!

Пример практического сценария: AI ассистент поддержки в Telegram-боте

Теперь, когда базовая интеграция работает, попробуем применить ее для более практичной задачи — создания AI ассистента поддержки в Telegram-боте.

Сценарий состоит из трёх нод:

  1. Trigger-нода Telegram — получает сообщение пользователя.

  2. Amvera LLM — сама LLM — анализирует текст, определяет тему обращения и предлагает ответ.

  3. Send a text message нода — отправляет результат обратно пользователю.

0432b7c904c0f464051a371192bfbe83

В ноде Amvera LLM зададим следующий system-промпт:

Проанализируй сообщение пользователя и определи его тип (технический вопрос, оплата, жалоба, отзыв) Затем сформулируй короткий, вежливый ответ, соответствующий определенной категории. Формат ответа: Категория: … Ответ: …

И в сообщение user передадим вывод Trigger-ноды:

{{ $json.message.text }}

Настройки ноды Amvera LLM будут выглядеть примерно так:

46d8766ce92371cbd4256dcea0b6062d

Ответ от нашей комьюнити-ноды передаем вперед также, как передавали в нашу ноду вывод Trigger-ноды:

{{ $json.text }}

Работа бота

Запускаем воркфлоу и пишем сообщения всех четырех типов для проверки

45e2fe5b8f17ecfb7c444d1136b7eca4

Итог

Мы подключили нейросеть к n8n без использования иностранной карты всего за несколько минут.

Главные плюсы:

  • Не нужны зарубежные карты или прокси.

  • Все модели и проекты в Amvera работают на общем балансе. Это удобно для управления и становится сложнее пропустить исчерпание баланса.

  • Нода интегрируется в n8n как стандартный модуль.

  • Весь процесс визуальный и без программирования.

Этот способ не является универсальным и заточен на конкретного облачного провайдера. Но всегда можно пойти слегка более сложным путём, написав несколько запросов, и использовать обычную HTTP-ноду с любым API, который вам необходим.

Источник: habr.com

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Согласование работы ИТ- и клинических команд
dummy-img
Я чуть не утонул в космосе, когда мой шлем наполнился водой.
Люди, с которыми вы живете, могут изменять состав вашей кишечной микрофлоры.
Люди, с которыми вы живете, могут изменять состав вашей кишечной микрофлоры.
GE и DeepHealth расширяют партнерство в области решений для скрининга рака молочной железы.
GE и DeepHealth расширяют партнерство в области решений для скрининга рака молочной железы.
dummy-img
STAT+: Доступ предоставлен: CMS одобрила участие более чем 150 человек в эксперименте по лечению хронических заболеваний.
Image Not Found
Согласование работы ИТ- и клинических команд

Согласование работы ИТ- и клинических команд

Как уменьшить трение и улучшить коммуникацию. Взаимодействие между устройствами. Принадлежит компании GE Healthcare Вы были свидетелем этих…

Апр 20, 2026
dummy-img

Как просканировать весь сайт с документацией с помощью Olostep

Автоматически собирайте страницы документации, очищайте и структурируйте контент, а также преобразуйте данные веб-сайта в готовые к…

Апр 20, 2026
Я чуть не утонул в космосе, когда мой шлем наполнился водой.

Я чуть не утонул в космосе, когда мой шлем наполнился водой.

Во время своего второго в жизни выхода в открытый космос астронавт Европейского космического агентства Лука Пармитано почувствовал, как…

Апр 20, 2026
Люди, с которыми вы живете, могут изменять состав вашей кишечной микрофлоры.

Люди, с которыми вы живете, могут изменять состав вашей кишечной микрофлоры.

Тесные отношения могут незаметно синхронизировать вашу кишечную микрофлору. Исследования показывают, что частые социальные контакты…

Апр 20, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых