Image

Запускаем Qwen3-VL-30B на 48GB VRAM

Недавно вышла коллекция моделей от Alibaba — Qwen3-VL:

https://huggingface.co/collections/Qwen/qwen3-vl-68d2a7c1b8a8afce4ebd2dbe

Эта модель не только "языковая", но ещё и "глазастая"
Эта модель не только «языковая», но ещё и «глазастая»

В своём блоге они написали (и показали) что могут модели этой коллекции:

  • LLM — то есть модель отвечает на вопросы. Поддерживаются 32 языка

  • Модель «видит»:

    • можно прислать картинку и спросить про неё

    • можно нарисовать страницу карандашом, прислать фото и попросить написать HTML страницу с интерфейсом, как на картинке

    • можно отправить сканированные или сфотографированные страницы и попросить распознать текст, или попросить содержание в формате makrdown.

    • понимает математические формулы, и может в ответ объяснить математику

  • Контекст — 256k

  • Есть модель, которая использует «рассуждения», и есть — без «рассуждений»

Здесь далее — туториал по запуску вот этой модели:

https://huggingface.co/Qwen/Qwen3-VL-30B-A3B-Thinking-FP8

Я думаю, что самый популярные движки для запуска моделей в домашних условиях — это llama.cpp и Ollama, но у них на данный момент модели этой серии не поддерживаются.

2 октября вышла версия vllm 0.11.0 в которой добавили поддержку этой модели.

Особенность vllm в том, что c запустить модель можно только если она полностью помещается на GPU. Выгрузка в RAM теоретически есть, но практически — не работает.

По ссылке выше — модель размером 32.3 GB. Плюс ещё надо место для контекта.

Система:

  • OS: Ubuntu 24

  • GPU: NVIDIA RTX 4090D 48GB

  • Предполагается. что уже стоят NVIDIA драйверы, Docker и nvidia-container-toolkit

Docker Composer:

services: qwen3vl: image: vllm/vllm-openai:v0.11.0 container_name: qwen3vl-30b-4090D deploy: resources: reservations: devices: — driver: nvidia capabilities: [gpu] device_ids: [‘0’] ports: — «36000:8000» environment: TORCH_CUDA_ARCH_LIST: «8.9» volumes: — /home/slavik/.cache:/root/.cache ipc: host command: — «—model» — «Qwen/Qwen3-VL-30B-A3B-Thinking-FP8» — «—max-model-len» — «139268» — «—served-model-name» — «local-qwen3vl-30b» — «—dtype» — «float16» — «—gpu-memory-utilization» — «0.98» — «—max-num-seqs» — «2» — «—reasoning-parser» — «deepseek_r1»

В манифесте выше вам нужно будет подправить:

  • путь, где вы будете хранить модель. Модель загрузится при первом запуске контейнера. Это может занять значительно время.

  • порт. Выше — это 36000

Контекст — 139к. Вот столько помещаются у меня в 48GB VRAM.

VLLM при запуске компилирует данные из модели, и у меня это занимает 2-4 минуты.

Поле «reasoning-parser»: может паказаться странным, что значение — «deepseek_r1», но без этого параметра «рассуждения» попадают в сам ответ, а не в ту его часть, которая для «рассуждений»

Скорость:

  • обработка промпта: 4000+ токенов в секунду.

  • генерация токенов в ответ:

    • 90 токенов в секунду на маленьком контексте

    • 40 токенов в секунду на 120k контексте

VLLM не предоставляет никакого пользовательского интерфейса (UI), а только API.

Поэтому получить ответ можно либо отправив запрос с помощью утилиты, например curl:

curl ‘http://192.168.0.123:36000/v1/chat/completions’ -H ‘Content-Type: application/json’ -d ‘{ «messages»: [ { «role»: «user», «content»: «Что такое счастье?» } ] }’ | jq

Либо используя какой-нибудь frontend.

Один из самых популярных — OpenWebUI. Я использую именно этот. И в общем всё работает: можно отправлять текст, картинки, даже сразу рендерится HTML из ответов.

«Рассуждает» модель довольно усердно, что может занимать значительное время, но качество ответов это серьёзно улучшает. Если же приоритет — скорость ответа, то можно использовать вот эту модель из этой же коллекции — она без «рассуждений» и отвечает сразу:

https://huggingface.co/Qwen/Qwen3-VL-30B-A3B-Instruct-FP8

В общем, модели — классные, удобные. Запускайте, пользуйтесь.

Источник: habr.com

✅ Найденные теги: Запускаем, новости
Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Фото сгенерированных лиц: исследование показывает, что люди не могут отличить настоящие лица от сгенерированных
Нейросети построили капитализм за трое суток: 100 агентов Claude заперли…
Скетч: цифровой осьминог и виртуальный мир внутри компьютера с человечком.
Сцена с жестами пальцами, где один жест символизирует "VPN", а другой "KHP".
‼️Paramount купила Warner Bros. Discovery — сумма сделки составила безумные…
Скриншот репозитория GitHub "Claude Scientific Skills" AI для научных исследований.
Структура эффективного запроса Claude с элементами задачи, контекста и референса.
Эскиз и готовая веб-страница платформы для AI-дизайна в современном темном режиме.
ideipro logotyp
Image Not Found
Звёздное небо с галактиками и туманностями, космос, Вселенная, астрофотография.

Система оповещения обсерватории Рубина отправила 800 000 сигналов в первую ночь наблюдений.

Астрономы будут получать оповещения о небесных явлениях в течение нескольких минут после их обнаружения. Теренс О'Брайен, редактор раздела «Выходные». Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной…

Мар 2, 2026
Женщина с длинными тёмными волосами в синем свете, нейтральный фон.

Расследование в отношении 61-фунтовой машины, которая «пожирает» пластик и выплевывает кирпичи.

Обзор компактного пресса для мягкого пластика Clear Drop — и что будет дальше. Шон Холлистер, старший редактор Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице вашего…

Мар 2, 2026
Черный углеродное волокно с текстурой плетения, отражающий свет.

Материал будущего: как работает «бессмертный» композит

Учёные из Университета штата Северная Каролина представили композит нового поколения, способный самостоятельно восстанавливаться после серьёзных повреждений.  Речь идёт о модифицированном армированном волокном полимере (FRP), который не просто сохраняет прочность при малом весе, но и способен «залечивать» внутренние…

Мар 2, 2026
Круглый экран с изображением замка и горы, рядом электронная плата.

Круглый дисплей Waveshare для креативных проектов

Круглый 7-дюймовый сенсорный дисплей от Waveshare создан для разработчиков и дизайнеров, которым нужен нестандартный экран.  Это IPS-панель с разрешением 1 080×1 080 пикселей, поддержкой 10-точечного ёмкостного сенсора, оптической склейкой и защитным закалённым стеклом, выполненная в круглом форм-факторе.…

Мар 2, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых