Ноутбук с кодом и цифровым мозгом, символизирующий искусственный интеллект.

Как запустить мощную LLM у себя на компьютере: DeepSeek Coder офлайн за 10 строк кода

75c360bb6ce484142a258ece6e37e8db

Хотите, чтобы нейросеть для генерации кода работала полностью локально, не отправляла ваши данные в облако и легко встраивалась в вашего Telegram-бота? Всё что нужно — Python и несколько гигабайт свободного места.

Базовая установка и запуск

Всё сводится к установке трёх библиотек и простому скрипту:

«`

pip install -U transformers accelerate torch

«`

«`

from transformers import AutoModelForCausalLM, AutoTokenizer

import torch

# Загружаем модель DeepSeek Coder (есть версии 1.3B, 6.7B, 33B параметров)

model_name = «deepseek-ai/deepseek-coder-6.7b-base»

tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)

model = AutoModelForCausalLM.from_pretrained(

model_name,

trust_remote_code=True,

torch_dtype=torch.float16, # экономим память на GPU

device_map=»auto» # автоматом использует GPU, если есть

)

model.eval()

# Генерируем код по промпту

prompt = «Напиши telegram бота обратной связи на aiogram»

inputs = tokenizer(prompt, return_tensors=»pt»)

inputs = {k: v.to(model.device) for k, v in inputs.items()}

with torch.inference_mode():

outputs = model.generate(**inputs, max_new_tokens=180)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))

«`

Первая загрузка скачает веса модели (несколько ГБ). Дальше она будет работать полностью офлайн.

Ключевые преимущества такого подхода

Полная приватность: Ваши промпты и код никуда не уходят.

Интеграция: Модель — просто Python-объект. Можно встроить в Telegram-бота, веб-сервис или CLI-утилиту.

Контроль: Сами выбираете температуру (temperature), длину ответа и другие параметры.

Оптимизация под ваше железо

Много RAM, но нет мощной GPU? Уберите torch_dtype=torch.float16 и device_map=»auto» — модель будет работать на CPU.

Мало оперативной памяти? Используйте квантованные версии (4-bit, 8-bit через bitsandbytes) или GGUF-формат для llama.cpp.

Есть NVIDIA GPU? device_map=»auto» само всё распределит. Чем больше видеопамяти — тем большую модель сможете запустить.

Сохраняйте этот шаблон — он станет основой для ваших локальных ИИ-инструментов.

Источник: vk.com

Источник: ai-news.ru

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Дифференциально приватное машинное обучение в масштабе с использованием JAX-Privacy
dummy-img
Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.
Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.
Под базельским концертным залом нашли жертв последней швейцарской чумы. Большинство из них умерли в юном возрасте
СОСТОЯЛОСЬ ЗАСЕДАНИЕ МЕТОДИЧЕСКОГО СОВЕТА, ПОСВЯЩЕННОЕ ПОКОЛЕНИЮ «РОЖДЕННЫХ ЦИФРОВЫМИ»
СОСТОЯЛОСЬ ЗАСЕДАНИЕ МЕТОДИЧЕСКОГО СОВЕТА, ПОСВЯЩЕННОЕ ПОКОЛЕНИЮ «РОЖДЕННЫХ ЦИФРОВЫМИ»
Биофизический мир внутри переполненной клетки
Появились новые доказательства того, как одиночество влияет на память в пожилом возрасте.
Image Not Found
Дифференциально приватное машинное обучение в масштабе с использованием JAX-Privacy

Дифференциально приватное машинное обучение в масштабе с использованием JAX-Privacy

Мы объявляем о выпуске JAX-Privacy 1.0, библиотеки для машинного обучения с дифференциальной приватностью, использующей высокопроизводительную вычислительную библиотеку JAX. Быстрые ссылки GitHub Делиться Скопировать ссылку × От персонализированных рекомендаций до научных достижений, модели ИИ помогают улучшать жизнь и…

Апр 21, 2026
dummy-img

Следующий этап развития Agents SDK | OpenAI

Обновленный SDK для агентов помогает разработчикам создавать агентов, которые могут проверять файлы, выполнять команды, редактировать код и работать над долгосрочными задачами в контролируемых изолированных средах. Мы представляем новые возможности в Agents SDK (открывается в новом окне) ,…

Апр 21, 2026
Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.

Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.

Тарин Пламб CleoP создан с помощью Midjourney. «Агенты ИИ могут взаимодействовать друг с другом, но не могут мыслить вместе. Это огромная разница и узкое место для систем следующего поколения», — говорит Виджой Пандей, старший вице-президент и генеральный…

Апр 21, 2026
Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.

Следующим узким местом в развитии ИИ станут не модели, а способность агентов мыслить сообща.

Тарин Пламб CleoP создан с помощью Midjourney. «Агенты ИИ могут взаимодействовать друг с другом, но не могут мыслить вместе. Это огромная разница и узкое место для систем следующего поколения», — говорит Виджой Пандей, старший вице-президент и генеральный…

Апр 21, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых