Извините, но я не могу просматривать или анализировать изображения с Google Drive. Если вы можете описать изображение, я помогу создать для него alt-текст.

Prompt Repetition: тупо копируешь промпт дважды — и модель отвечает точнее

Суть за 30 секунд

Вот смотрите, есть техника — берёшь свой промпт, копируешь его и вставляешь два раза подряд. Отправляешь. Всё. Точность ответов растёт на 5-70% в зависимости от задачи.

Никакого кода, никаких настроек — работает прямо в чате.

В чём проблема

LLM читают текст слева направо и не могут «вернуться» назад. Получается, порядок слов реально влияет на качество.

Вот типичная ситуация: скидываешь модели список из 50 имён, а в конце спрашиваешь «какое 25-е?». Модель читала весь этот список, не понимая зачем он ей нужен — вопрос-то в конце был.

Это как читать инструкцию по сборке мебели, не зная что собираешь. Детали не укладываются в систему, потому что непонятно на что обращать внимание.

Как это решает повторение

Когда промпт идёт дважды — модель на втором проходе уже знает, что от неё хотят. Каждый токен «видит» всю картину целиком.

Ребята из Google Research погоняли это на 7 моделях (GPT-4o, Claude, Gemini, Deepseek) и 7 бенчмарках. Результат — 47 побед из 70 тестов, ни одного поражения.

Самое интересное — латентность не меняется. Повторение обрабатывается параллельно на входе, длина ответа та же. Модель не тупит дольше — просто думает лучше.

Как делать

ШАГ 1: Берёшь свой промпт ШАГ 2: Копируешь целиком ШАГ 3: Вставляешь копию сразу после оригинала → отправляешь

Формат простой:

{твой промпт} {твой промпт}

Можно добавить связку между блоками:

{твой промпт} Повторю ещё раз: {твой промпт}

Для сложных задач — тройное повторение:

{твой промпт} Повторю ещё раз: {твой промпт} Повторю последний раз: {твой промпт}

Пример из практики

Допустим, готовишь питч для инвестора. Написал 300 слов, а нужно ровно 150 — лимит слайда. Просишь модель сократить, сохранив ключевые тезисы.

Без повторения:

Вот текст питча: [300 слов про маркетплейс, метрики, команду] Сократи до 150 слов. Сохрани: суть продукта, ключевую метрику, запрос инвестиций.

С повторением:

Вот текст питча: [300 слов про маркетплейс, метрики, команду] Сократи до 150 слов. Сохрани: суть продукта, ключевую метрику, запрос инвестиций. Вот текст питча: [300 слов про маркетплейс, метрики, команду] Сократи до 150 слов. Сохрани: суть продукта, ключевую метрику, запрос инвестиций.

Получается, модель на втором проходе читает текст уже понимая, что важно — критерии сокращения. Результат ближе к 150 словам и точнее попадает в то, что нужно сохранить.

Где это реально качает

На кастомных задачах эффект был просто дикий. Gemini 2.0 Flash-Lite на задаче «найди 25-е имя из списка 50» — точность выросла с 21% до 97% при двойном повторении.

Кстати, чем хуже изначальный порядок информации в промпте (контекст сначала, вопрос потом) — тем сильнее помогает повторение. Логично: именно эту проблему оно и решает.

Минусы и ограничения

Есть несколько моментов, про которые честно:

Длинные промпты — если у тебя промпт под 100К токенов, повторение может не влезть или затормозить на входе. У Claude на очень длинных промптах латентность заметно выросла.

Reasoning-режим — когда модель и так думает пошагово (Chain-of-Thought), эффект почти нулевой. Она сама повторяет запрос в начале рассуждений — получается дублирование того, что уже происходит.

Простые задачи — если спрашиваешь «столица Франции?», повторение ничего не даст. Модель и так знает ответ с первого раза.

Почему это вообще работает

Тут штука в том, как устроен attention в LLM. Каждый токен «видит» только то, что было до него — это называется causal attention.

Когда промпт идёт дважды, на втором проходе каждый токен контекста уже «знает» про инструкцию из конца первого блока. Это как перечитать задачу после того, как узнал что именно нужно найти — детали становятся значимыми.

А латентность не растёт, потому что повторение обрабатывается на prefill-стадии — она параллельная. Модель генерирует столько же токенов на выходе, просто лучше понимает что от неё хотят.

Итого

Техника работает для всех протестированных моделей — это не баг какой-то одной архитектуры, а фундаментальное свойство того, как LLM читают текст.

Просто копируешь промпт дважды. Без кода, без настроек, прямо в чате. Точность растёт, скорость та же.

Вот в PDF выложил все подробное объяснение:

1drive.google.comNovaSapiens_2512.14982_PromptRepetition Improves Non-ReasoningLLMs (2).pdf

Источник: vc.ru

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

ИИ почти всех обгонит? Прогнозы звучат громко, но есть нюансы…
Компания Anthropic получила от Amazon 5 миллиардов долларов и в обмен пообещала инвестировать 100 миллиардов долларов в облачные сервисы.
dummy-img
Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.
Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.
dummy-img
dummy-img
Взаимодействие человека и машины погружается под воду.
Взаимодействие человека и машины погружается под воду.
Image Not Found
Компания Anthropic получила от Amazon 5 миллиардов долларов и в обмен пообещала инвестировать 100 миллиардов долларов в облачные сервисы.

Компания Anthropic получила от Amazon 5 миллиардов долларов и в обмен пообещала инвестировать 100 миллиардов долларов в облачные сервисы.

Вкратце Опубликовано: Изображение предоставлено: Thos Robinson/Getty Images для The New York Times (откроется в новом окне) Джули Борт Компания Anthropic получила от Amazon 5 миллиардов долларов и в обмен пообещала инвестировать 100 миллиардов долларов в облачные сервисы.…

Апр 21, 2026
dummy-img

Как почистить виниловые пластинки (2026): пылесос, ультразвук, чистящий раствор, щетка.

Эти щелчки и треск недопустимы. Приведите свою музыку в порядок с помощью этого удобного руководства. Источник: www.wired.com

Апр 21, 2026
Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.

Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.

Это сегодняшний выпуск The Download, нашей ежедневной новостной рассылки, которая предоставляет вам ежедневную порцию событий в мире технологий. Кибермошенники обходят системы безопасности банков с помощью незаконных инструментов, продаваемых в Telegram. В центре по отмыванию денег в Камбодже…

Апр 21, 2026
Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.

Загрузка: обход банковских систем кибермошенниками и проблемы с удалением углерода.

Это сегодняшний выпуск The Download, нашей ежедневной новостной рассылки, которая предоставляет вам ежедневную порцию событий в мире технологий. Кибермошенники обходят системы безопасности банков с помощью незаконных инструментов, продаваемых в Telegram. В центре по отмыванию денег в Камбодже…

Апр 21, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых