Таблица с 30 концепциями моделей обработки естественного языка (LLM).

30 базовых концепций LLM

79b606bfd63855590fbc23a9c5480fbe

1. LLM (Large Language Model) — модель, которая генерирует текст, предсказывая наиболее вероятный следующий токен.

2. Token (токен) — фрагмент текста, например, слово или знак препинания.

3. Tokenization (токенизация) — процесс преобразования текста в последовательность токенов.

4. Embeddings (эмбеддинги) — числовые векторы, которые отражают значение токенов.

5. Latent Space (латентное пространство) — математическое пространство, где эмбеддинги организуются по смыслу.

6. Parameters (параметры) — внутренние переменные, хранящие усвоенные моделью паттерны.

7. Pre-training (предварительное обучение) — обучение на огромных объёмах текстовых данных для освоения языковых паттернов.

8. Base Model (базовая модель) — предварительно обученная модель, которая предсказывает текст, но не следует инструкциям.

9. Instruct Model (модель с инструкциями) — базовая модель, дополнительно обученная следовать инструкциям и давать полезные ответы.

10. Fine-Tuning (дообучение) — дополнительное обучение на меньшем наборе данных для формирования поведения модели.

11. Alignment (выравнивание) — обеспечение того, чтобы поведение модели было полезным, честным и безвредным.

12. RLHF (Reinforcement Learning with Human Feedback — обучение с подкреплением с обратной связью от человека) — использование ранжированных человеком ответов для корректировки поведения модели.

13. Prompt (промпт) — полный ввод, отправляемый модели, включая инструкции и контекст.

14. System Prompt (системный промпт) — высокоуровневые инструкции, определяющие роль и ограничения модели.

15. User Prompt (пользовательский промпт) — конкретный вопрос или инструкция, предоставленная пользователем.

16. Context Window (окно контекста) — максимальное количество токенов, которое модель может обработать за один раз.

17. Zero-Shot Learning (обучение без примеров) — выполнение задачи без примеров в промпте.

18. Few-Shot Learning (обучение на нескольких примерах) — включение примеров в промпт для направления формата вывода или поведения.

19. Chain of Thought (цепочка мыслей) — побуждение модели демонстрировать пошаговое рассуждение.

20. Inference (вывод) — процесс генерации выходных токенов с помощью обученной модели.

21. Latency (задержка) — время между отправкой промпта и получением вывода.

22. Temperature (температура) — параметр, контролирующий случайность при выборе токенов.

23. Hallucination (галлюцинация) — уверенная генерация неверной или вымышленной информации.

24. Grounding (привязка к реальности) — ограничение вывода предоставленной или проверяемой информацией.

25. RAG (Retrieval-Augmented Generation — генерация, дополненная поиском) — извлечение внешних данных и добавление их в промпт перед генерацией.

26. Workflow (рабочий процесс) — фиксированная, предопределённая последовательность шагов, которых придерживается LLM.

27. Agent (агент) — система, в которой LLM планирует действия, а затем динамически выбирает шаги и инструменты.

28. Multimodality (мультимодальность) — способность обрабатывать несколько типов входных данных, таких как текст и изображения.

29. Benchmarks (бенчмарки) — стандартизированные тесты для сравнения возможностей модели.

30. Guardrails (ограничители) — системы, блокирующие небезопасные или неподходящие входные и выходные данные.

Источник: vk.com

Источник: ai-news.ru

✅ Найденные теги: 30, LLM, искусственный интеллект, Концепции, Модели, новости, Обучение

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Залитый солнцем лес с деревьями и болотистой водой, покрытой зелёной растительностью.
Пленка NeoFilm 100 на деревянном столе в окружении упаковок.
Деревянный минималистичный сундук с подсветкой в интерьере.
Обложка отчета о преодолении разрыва в операционном ИИ от MIT Technology Review.
Твит о разработке в 2026: выполнение сложных задач до пробуждения США, чтобы избежать проблем с ИИ.
Прозрачный раствор в бутылочке с черной крышкой, химическая формула на этикетке.
Диаграмма ложной идентичности: реальность и самозванец, высокие и низкие частоты.
Изображение крупным планом дрона с логотипом Anduril.
ideipro logotyp
Image Not Found
Пленка NeoFilm 100 на деревянном столе в окружении упаковок.

Цифровая камера OPT NeoFilm 100 в формате плёнки

Компактная камера OPT NeoFilm 100 выполнена в виде классической 35-мм плёнки, но внутри скрывается не аналоговый механизм, а цифровая «начинка», способная снимать фото и видео.  Камера оснащена 1-мегапиксельным сенсором, который позволяет получать изображения с разрешением до 3…

Мар 5, 2026
Деревянный минималистичный сундук с подсветкой в интерьере.

«Умная» кровать-трансформер Roll

Хорватский дизайнер Лука Булян разработал проект складной кровати Roll, которая по нажатию кнопки сворачивается в аккуратный деревянный шкаф. Главная идея строится на принципе ежедневного скручивания матраса без потери его свойств. Конструкция оснащена тихим электродвигателем и плавным механизмом…

Мар 5, 2026
Обложка отчета о преодолении разрыва в операционном ИИ от MIT Technology Review.

Преодоление разрыва в операционном применении ИИ

Интеграция в масштабах всего предприятия используется для распространения современных автоматизированных процессов на завтрашние рабочие процессы, осуществляемые агентами. Трансформационный потенциал ИИ уже хорошо известен. Примеры его применения в корпоративной среде набирают обороты, и организации переходят от пилотных проектов…

Мар 5, 2026
Прозрачный раствор в бутылочке с черной крышкой, химическая формула на этикетке.

Ученые усовершенствовали метод получения промышленного спирта

Полученный α-кумиловый спирт © Елена Редина. Ученые разработали новый метод получения α-кумилового спирта — ключевого продукта для производства полимеров, косметики и моющих средств. Этот спирт также служит основой для получения вещества, придающего пластикам прочность и устойчивость к…

Мар 5, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых