Узнайте, как увеличить использование LLM для повышения производительности
Делиться

С выходом ChatGPT слово «масштабирование» стало, пожалуй, самым важным в контексте больших языковых моделей (LLM). ChatGPT стал настолько успешным во многом благодаря масштабируемому предварительному обучению , проведённому OpenAI, что сделало его мощной языковой моделью.
После этого лаборатории Frontier LLM начали масштабировать пост-обучение , с контролируемой тонкой настройкой и RLHF, в ходе которых модели все лучше следовали инструкциям и выполняли сложные задачи.
И как раз когда мы думали, что LLM вот-вот выйдет на плато, мы начали масштабировать время вывода с выпуском моделей рассуждений, где трата токенов мышления давала огромные улучшения в качестве результатов.

Теперь я утверждаю, что нам следует продолжить это масштабирование с новой парадигмой масштабирования: масштабирование на основе использования , где вы масштабируете то, насколько интенсивно вы используете LLM:
- Запускайте больше агентов кодирования параллельно
- Всегда начинайте глубокое исследование интересующей вас темы
- Запуск рабочих процессов по извлечению информации
Если вы не увольняете агента перед обедом или сном, вы теряете время.
В этой статье я расскажу, почему масштабирование использования LLM может привести к повышению производительности, особенно при работе программистом. Кроме того, я расскажу о конкретных методах, которые вы можете использовать для масштабирования использования LLM как для себя лично, так и для компаний, в которых вы работаете. В этой статье я постараюсь придерживаться общей темы, стремясь вдохновить вас на то, чтобы максимально эффективно использовать ИИ.
Почему вам следует масштабировать использование LLM
Ранее мы уже видели, как масштабирование может быть невероятно эффективным:
- предварительная подготовка
- после обучения
- масштабирование времени вывода
Причина в том, что, как оказалось, чем больше вычислительной мощности вы тратите на что-либо, тем лучшего качества результат вы получите. Конечно, это предполагает, что вы способны эффективно использовать компьютер. Например, для предварительного обучения возможность масштабирования вычислений зависит от
- Достаточно большие модели (достаточно веса для тренировки)
- Достаточно данных для обучения
Если масштабировать вычисления без этих двух компонентов, улучшений не будет. Однако, если масштабировать все три, можно получить потрясающие результаты, например, передовые программы LLM, которые мы наблюдаем сейчас, например, с выпуском Gemini 3.
Поэтому я считаю, что вам следует стремиться к максимальному масштабированию своего опыта работы с LLM. Это может быть, например, запуск нескольких агентов для параллельного написания кода или начало углубленного исследования интересующей вас темы в Gemini.
Конечно, использование всё равно должно быть полезным. Нет смысла запускать агент кодирования для какой-то непонятной задачи, которая вам не нужна. Вместо этого следует запустить агент кодирования для:
- Линейная проблема, на которую у вас никогда не было времени сесть и заняться ею самостоятельно
- В ходе последнего телефонного разговора по продажам была запрошена быстрая функция
- Некоторые улучшения пользовательского интерфейса, как вы знаете, сегодняшние агенты кодирования легко справляются

Источник: towardsdatascience.com























