GitHub проект deepseek-ai/Engram с 391 звездой, 18 форками и 0 проблем.

DeepSeek Engram: условная память LLM через поиск

3da15ea837183e4f2869a0baf85a62d4

DeepSeek опять шатают устои архитектуры трансформеров свежайшим пейпером (https://github.com/deepseek-ai/Engram/blob/main/Engram_paper.pdf), который доказывает, что новое — это хорошо [спойлер: и очень хитро] забытое старое.

Пока все пытаются запихнуть в LLM как можно больше слоев и параметров, DeepSeek задались вопросом: зачем тратить дорогой компьют на запоминание фактов, если их можно просто подсмотреть? Знакомьтесь:

Engram — модуль, который возвращает нас к дедам с N-грамами.

DeepSeek предлагает разделить «думалку» (MoE-слои) и «хранилище знаний» (Engram):

Hashed N-grams: модуль смотрит на входящий текст и нарезает его на N-грамы (последовательности токенов).

O(1) Lookup: система делает мгновенный запрос в гигантскую хэш-таблицу эмбеддингов — это чисто статический поиск.

Context-Aware Gating: самый сок. Модель не просто слепо берет данные из «хранилища знаний» — специальный гейтинг-механизм решает: «Нам сейчас нужен факт из памяти или будем думать сами?». Если найденный N-грам релевантен контексту, он подмешивается в скрытое состояние.

Tokenizer Compression: чтобы хранилище знаний не лопнуло от мусора, похожие токены в нем схлопывают в один ID, например, «Apple» и «apple».

Баланс распределения ресурсов.

Чтобы правильно поделить бюджет параметров между MoE и Engram посчитали сценарии масштабирования. График лосса от соотношения этих частей выглядит как буква U:

Перекос в MoE (100% вычислений): модель тратит дорогие слои внимания на запоминание статики. Это неэффективно, лосс высокий.

Перекос в Память (0% вычислений): модель превращается в гигантскую википедию. Она помнит факты, но у нее напрочь атрофируется ризонинг. Лосс тоже высокий.

Золотая середина (дно U-кривой): 80% MoE и ~20% Engram.

Тесты и результаты.

DeepSeek обучили модель Engram-27B и сравнили ее с классической MoE-27B при одинаковом бюджете параметров и FLOPs. Итоги:

Общее качество подросло: MMLU +3.4 пункта, HumanEval (код) +3.0.

На длинном контексте — разнос. В тесте на поиск иголки (NIAH) точность выросла с 84.2 до 97.0. Модель разгрузила слои внимания от запоминания локальных паттернов, и оно сфокусировалось на глобальном контексте.

Модель быстрее сходится. Engram берет на себя рутину в ранних слоях, тем самым позволяя модели сразу учиться сложным вещам.

Архитектурный нюанс.

Таблица эмбеддингов для Engram может быть запредельно огромной (в пейпере разгоняли до 100B параметров) и, очевидно, в VRAM это не влезает.

Решили так: раз ID токенов известен до прогона слоя, то эти данные можно хранить в RAM и асинхронно подтягивать. В реале, оверхед от этой механики показал меньше 3%., т.е. мы получаем модель, которая знает больше, чем влезает в GPU, используя оперативку сервера.

DeepSeek фактически легализовала подобие шпаргалок для LLM.

Вместо того чтобы заставлять модель учить все наизусть, ей дают гигантский справочник. Теоретически, это открывает путь к [спойлер: прекрасному] ИИ [спойлер: светлого будущего], который может иметь условно-бесконечную память, ограниченную только объемом оперативки, а не VRAM.

Похоже, в V4 мы увидим как эта схема работает, ведь инсайдеры у нее запредельные скилы.

Техотчет (https://github.com/deepseek-ai/Engram/blob/main/Engram_paper.pdf)

Github (https://github.com/deepseek-ai/Engram/)

Источник: github.com

Источник: ai-news.ru

✅ Найденные теги: DeepSeek, Engram, LLM, новости, Память, Поиск

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Скриншот с переводом текста про местоположение Марса в Солнечной системе.
Apple использует Gemini с Siri для ответов, похожих на ChatGPT.
Экранышот YouTube с видео о начале работы с Codex от OpenAI в интерфейсе VS Code.
Компактный фотопринтер печатает яркое фото с изображением группы людей.
Рабочий стол компьютера с множеством файлов и папок и открытой программой на переднем плане.
Женщина паркуристка прыгает между небоскрёбами в футуристическом городе на закате.
Умная кормушка с камерой в саду и птичка на краю.
Цифровой чек на покупку кексов с творожным кремом на 500 рублей с QR-кодом.
Представление CosyVoice3 — многоязычной модели синтеза речи с открытым исходным кодом.
Image Not Found
Первый домашний прибор против депрессии

Первый домашний прибор против депрессии

Управление по санитарному надзору за качеством пищевых продуктов и медикаментов в США (FDA) одобрило первый домашний прибор для стимуляции…

Янв 15, 2026
Человек в розовой рубашке стоит с крещеными руками на фоне книжных полок.

Индийская компания Emversity удвоила свою рыночную капитализацию, расширяя штат сотрудников, которых не может заменить искусственный интеллект.

Источник изображения: Emversity Поскольку искусственный интеллект автоматизирует часть рабочей силы, индийский стартап Emversity,…

Янв 15, 2026
Графическая карта с тремя вентиляторами и кабелем на столе.

Работяга из Cybenetics Labs разработал прототип кабеля 12V-2×6, защищающего от плавления

Проблема плавления видеокарт и блоков питания при использовании современного 16-контактного разъёма 12V-2×6 никуда не делась и до сих пор…

Янв 15, 2026
Обложка Forbes: инвестиции и рынок 2026, зелёные и красные стрелки, небоскрёб и стройка.

«В штуках продаем много, а в метрах — кошачьи слезы». Честный разбор рынка недвижимости 2026: почему застройщики строят «памятники себе», а аренда в Ростове летит в пропасть

Автор: Елена Трофимова Юрист по недвижимости, брокер и человек, который умеет читать балансовые отчеты застройщиков между строк.Оферта, от…

Янв 15, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых