Image

Собственный ИИ локально, бесплатно и без GPU

Сегодня каждый может обзавестись своим собственным ИИ. И даже не потребуется супер-пупер компьютера и дата-центра с кучей GPU. При этом он будет работать без Интернета. Давайте, приступим к тому, чтобы обзавестись на компьютере милым и пушистым питомцем.

Ollama

Для начала нужно установить ollama. Переходим на страницу ollama.com/download и скачиваем дистрибутив для своей операционной системы.

88918d61e57f4a71ee3e031a0f4750db

Устанавливаем ollama из дистрибутива. После установки она запустится и будет висеть в фоне.

Далее, нам нужно скачать модели ИИ. Их можно найти на странице ollama.com/search

4b68a6f11c199acb81fde4d35c8b5761

Для наших целей попробуем скачать модель gemma3. На текущий день очень хорошая модель. Но нужно будет решить одну проблему. Размер RAM на вашем компьютере. Переходим на страницу gemma3.

c90144ba389cfa1e0f38805f90a0d728

Необходимо выбрать такую размерность модели, чтобы ее вес поместился в объем доступной на компьютере оперативной памяти. Если же есть GPU, то ориентируйтесь на размер доступной видеопамяти.

Для эксперимента возьмем модель gemma3 с размерностью 4b. Весит она немного, около 3,3Гб. Скорее всего, она сможет работать даже на офисном компьютере, у которого есть хотя бы 4Гб на борту.

Копируем команду для загрузки этой модели.

6546524ff0d45fee7b527f8502ea6fb5

Далее, нам потребуется открыть терминал. Для Windows — Win + R для вызова строки. В ней набираем cmd и Enter. Или правой кнопкой на Пуск и выбрать Терминал. Для mac: Command + Space. Ищем Terminal. запускаем.

Первым делом в терминале набираем команду ollama list Жмем Enter. Этой командой мы получаем список уже загруженных моделей. Если в ответе список пришел пустой, значит пора загрузить первую модель. Для этого мы и копировали команду для загрузки ollama run gemma3. Вводим эту команду в терминале и начинается процесс скачивания модели. Ждем.

Когда модель скачается, появится строка такого вида:

Send a message (/? for help)

Это означает, что модель ИИ готова к работе и ждет вашего первого вопроса ))) Да, это все, что нужно было сделать, чтобы на компьютере появился собственный, бесплатный, локальный ИИ.

Когда вы устанете говорить с моделью и захотите закончить, просто закройте терминал или наберите команду /bye

Наводим красоту (Streamlit)

Терминал — это, конечно, хорошо. Но не так красиво, как хотелось бы. Поэтому следующим шагом давайте сделаем интерфейс. Быстро и легко.

Вначале нужно подготовить среду для создания интерфейса. Вот рецепт приготовления:

1. Устанавливаем Python на компьютер

Идем по ссылке www.python.org/downloads/

76a8be0e699a0e19ec24c31532ec649d

Скачиваем дистрибутив питона и устанавливаем.

Проверяем, все ли установилось. Для Windows в терминале введите python —version и нажмите Enter. Система должна показать версию Python, установленную на вашем компьютере. Для Mac в терминале введите python3 —version и нажмите Enter.

2. Устанавливаем VS Code

Далее нам нужно будет установить среду разработки. В нашем случае самым простым будет VS Code. Идем по ссылке code.visualstudio.com/download

3b123bb2697ac1142388322e0f568c75

Скачиваем и устанавливаем. Теперь нам понадобится папка, в которой будет лежать код. Назовите ее, например LLM_CHAT. Создаем ее, где удобно.

Открываем VS Code. Нажимаем «Open» и указываем только что созданную папку.

689a64414e536d9a0e1d6cf2d83b033d

Курсор подводим к имени папки и нажимаем иконку для создания файла.

4d1db94917f43bc63324026de83b7a3e

Пока он пустой.

07135dfaa55b1afd2487a2f09af60208

Перед тем, как скопировать в него несколько строчек кода нам нужно установить две библиотеки: streamlit и ollama. Сначала нужно создать изолированную среду. Открываем терминал, но уже в VS Code. Подведите курсор к нижней границе синего. Курсор изменится на две стрелочки. Потяните вверх. Под занавесом покажется терминал.

Теперь нужно создать изолированное окружение. Это просто. Сначала снова узнаем версию python.

Для Windows в терминале введите python —version и нажмите Enter. Система должна показать версию Python, установленную на вашем компьютере. Для Mac в терминале введите python3 —version и нажмите Enter.

Далее, введите команду, например. Где вместо python3.13.1 укажите ту версию, которая была получена на предыдущем шаге.

virtualenv -p python3.13.1 venv

Если будет ругаться, что не установлен virtualenv, то просто в терминале наберите команду

pip install virtualenv

В папке проекта теперь появилась папка с именем venv. Нам нужно в этой папке найти папку bin и файл activate. У вас структура папок, возможно, будет выглядеть иначе. Вместо opt может быть Scripts или сразу увидите bin, но где-то в ней точно будет лежать файл activate.

0ee8f402a0114ee9b23a0eb778497d97

Теперь нам надо узнать путь к этому файлу. Получаем его в контекстном меню.

c04aa9f4c654a9d801db578798099da9

Копируем путь. И делаем вот что. В терминале набираем такую команду

. <путь к файлу activate>

Будьте внимательны. Это Точка Пробел Путь к файлу. Путь к файлу просто вставляйте после точки и пробела (мы ведь только что его скопировали в контекстном меню)

Получится что-то такое.

. /Downloads/LLM_chat/venv/bin/activate

После того, как нажмете Enter в начале командной строки терминала появится (venv). Значит все ОК.

Осталось совсем немного. Теперь мы можем приступить к установке необходимых нам библиотек.

В терминале набираем команду

pip install streamlit

И следующую команду

pip install ollama

Надеюсь, что установка прошла успешно. Это так, если после каждой установки будет написано Successfully и бла бла бла.

Теперь в файл llm_chat.py копируем следующий код

import streamlit as st import ollama from typing import Dict, Generator # получаем список моделей из ollama models_obj = ollama.list() models = [x.model for x in models_obj.models] # создаем выпадающее меню для списка моделей model_name = st.sidebar.selectbox(‘**LLM**’, models) # создаем надпись в левой стороне экрана st.sidebar.write(‘**options**’) # создаем текстовое поле для системного промта sys_prompt = st.sidebar.text_area( ‘sys prompt’, ‘Ты русскоговорящий помощник. Помоги, чем можешь. Отвечай только на русском языке.’, ) # создаем слайдер для выбора размера максимального количества токенов ctx_num = st.sidebar.select_slider( «max tokens», options=[ 512, 1024, 2048, 4096, 8192, 32768, 65636, ], ) # определяем конфигурацию модели options = {«temperature»:0, «ctx_num»:ctx_num} # функция генерации ответа модели в режиме стрим def ollama_generator(model_name: str, messages: Dict, options: Dict) -> Generator: stream = ollama.chat( model=model_name, messages=messages, options=options, stream=True) for chunk in stream: yield chunk[‘message’][‘content’] # создаем название чатбота на экране интерфейса st.title(«💬 Chatbot») st.caption(«🚀 Chatbot powered by human») # определяем начальное состояние чата if «messages» not in st.session_state: st.session_state[«messages»] = [] # создаем механику чата for msg in st.session_state.messages: st.chat_message(msg[«role»]).write(msg[«content»]) if prompt := st.chat_input(): st.session_state.messages.append({«role»: «system», «content»: sys_prompt}) st.session_state.messages.append({«role»: «user», «content»: prompt}) st.chat_message(«user»).write(prompt) with st.chat_message(«assistant»): response = st.write_stream(ollama_generator( model_name, st.session_state.messages, options)) st.session_state.messages.append( {«role»: «assistant», «content»: response})

3. Всё готово.

Выдохнули.

Запускаем интерфейс и смотрим, что у нас получилось. Для этого в терминале вводим команду

streamlit run llm_chat.py

Обратите внимание, что при первом запуске streamlit, он попросит указать ваш email. Это не к чему. Просто нажмите Enter и снова введите команду запуска.

Откроется окно браузера, и мы увидим интерфейс собственного ИИ, с которым работать удобнее, чем в терминале.

d31b29a9c3a09adc6d0c4835b3731173

Можно выбрать модель, системный промт и размер, так называемого окна. Размер окна лучше большим не делать. Достаточно будет 1024 или 2048, если только вы не собираетесь в промт отправить полное собрание сочинений какого-нибудь известного автора.

Теперь у вас есть собственный ИИ. Ему не нужен интернет, он бесплатный и достаточно умный. Хотите еще умнее, то нужно установить модель побольше, но это если ресурсы позволяют.

Экспериментируйте!

Источник: habr.com

✅ Найденные теги: новости, Собственный
Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Фото сгенерированных лиц: исследование показывает, что люди не могут отличить настоящие лица от сгенерированных
Нейросети построили капитализм за трое суток: 100 агентов Claude заперли…
Скетч: цифровой осьминог и виртуальный мир внутри компьютера с человечком.
Сцена с жестами пальцами, где один жест символизирует "VPN", а другой "KHP".
‼️Paramount купила Warner Bros. Discovery — сумма сделки составила безумные…
Скриншот репозитория GitHub "Claude Scientific Skills" AI для научных исследований.
Структура эффективного запроса Claude с элементами задачи, контекста и референса.
Эскиз и готовая веб-страница платформы для AI-дизайна в современном темном режиме.
ideipro logotyp
Image Not Found
Звёздное небо с галактиками и туманностями, космос, Вселенная, астрофотография.

Система оповещения обсерватории Рубина отправила 800 000 сигналов в первую ночь наблюдений.

Астрономы будут получать оповещения о небесных явлениях в течение нескольких минут после их обнаружения. Теренс О'Брайен, редактор раздела «Выходные». Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной…

Мар 2, 2026
Женщина с длинными тёмными волосами в синем свете, нейтральный фон.

Расследование в отношении 61-фунтовой машины, которая «пожирает» пластик и выплевывает кирпичи.

Обзор компактного пресса для мягкого пластика Clear Drop — и что будет дальше. Шон Холлистер, старший редактор Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице вашего…

Мар 2, 2026
Черный углеродное волокно с текстурой плетения, отражающий свет.

Материал будущего: как работает «бессмертный» композит

Учёные из Университета штата Северная Каролина представили композит нового поколения, способный самостоятельно восстанавливаться после серьёзных повреждений.  Речь идёт о модифицированном армированном волокном полимере (FRP), который не просто сохраняет прочность при малом весе, но и способен «залечивать» внутренние…

Мар 2, 2026
Круглый экран с изображением замка и горы, рядом электронная плата.

Круглый дисплей Waveshare для креативных проектов

Круглый 7-дюймовый сенсорный дисплей от Waveshare создан для разработчиков и дизайнеров, которым нужен нестандартный экран.  Это IPS-панель с разрешением 1 080×1 080 пикселей, поддержкой 10-точечного ёмкостного сенсора, оптической склейкой и защитным закалённым стеклом, выполненная в круглом форм-факторе.…

Мар 2, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых