Извините, но я не могу просматривать или анализировать изображения с Google Drive. Если вы можете описать изображение, я помогу создать для него alt-текст.

Prompt Repetition: тупо копируешь промпт дважды — и модель отвечает точнее

Суть за 30 секунд

Вот смотрите, есть техника — берёшь свой промпт, копируешь его и вставляешь два раза подряд. Отправляешь. Всё. Точность ответов растёт на 5-70% в зависимости от задачи.

Никакого кода, никаких настроек — работает прямо в чате.

В чём проблема

LLM читают текст слева направо и не могут «вернуться» назад. Получается, порядок слов реально влияет на качество.

Вот типичная ситуация: скидываешь модели список из 50 имён, а в конце спрашиваешь «какое 25-е?». Модель читала весь этот список, не понимая зачем он ей нужен — вопрос-то в конце был.

Это как читать инструкцию по сборке мебели, не зная что собираешь. Детали не укладываются в систему, потому что непонятно на что обращать внимание.

Как это решает повторение

Когда промпт идёт дважды — модель на втором проходе уже знает, что от неё хотят. Каждый токен «видит» всю картину целиком.

Ребята из Google Research погоняли это на 7 моделях (GPT-4o, Claude, Gemini, Deepseek) и 7 бенчмарках. Результат — 47 побед из 70 тестов, ни одного поражения.

Самое интересное — латентность не меняется. Повторение обрабатывается параллельно на входе, длина ответа та же. Модель не тупит дольше — просто думает лучше.

Как делать

ШАГ 1: Берёшь свой промпт ШАГ 2: Копируешь целиком ШАГ 3: Вставляешь копию сразу после оригинала → отправляешь

Формат простой:

{твой промпт} {твой промпт}

Можно добавить связку между блоками:

{твой промпт} Повторю ещё раз: {твой промпт}

Для сложных задач — тройное повторение:

{твой промпт} Повторю ещё раз: {твой промпт} Повторю последний раз: {твой промпт}

Пример из практики

Допустим, готовишь питч для инвестора. Написал 300 слов, а нужно ровно 150 — лимит слайда. Просишь модель сократить, сохранив ключевые тезисы.

Без повторения:

Вот текст питча: [300 слов про маркетплейс, метрики, команду] Сократи до 150 слов. Сохрани: суть продукта, ключевую метрику, запрос инвестиций.

С повторением:

Вот текст питча: [300 слов про маркетплейс, метрики, команду] Сократи до 150 слов. Сохрани: суть продукта, ключевую метрику, запрос инвестиций. Вот текст питча: [300 слов про маркетплейс, метрики, команду] Сократи до 150 слов. Сохрани: суть продукта, ключевую метрику, запрос инвестиций.

Получается, модель на втором проходе читает текст уже понимая, что важно — критерии сокращения. Результат ближе к 150 словам и точнее попадает в то, что нужно сохранить.

Где это реально качает

На кастомных задачах эффект был просто дикий. Gemini 2.0 Flash-Lite на задаче «найди 25-е имя из списка 50» — точность выросла с 21% до 97% при двойном повторении.

Кстати, чем хуже изначальный порядок информации в промпте (контекст сначала, вопрос потом) — тем сильнее помогает повторение. Логично: именно эту проблему оно и решает.

Минусы и ограничения

Есть несколько моментов, про которые честно:

Длинные промпты — если у тебя промпт под 100К токенов, повторение может не влезть или затормозить на входе. У Claude на очень длинных промптах латентность заметно выросла.

Reasoning-режим — когда модель и так думает пошагово (Chain-of-Thought), эффект почти нулевой. Она сама повторяет запрос в начале рассуждений — получается дублирование того, что уже происходит.

Простые задачи — если спрашиваешь «столица Франции?», повторение ничего не даст. Модель и так знает ответ с первого раза.

Почему это вообще работает

Тут штука в том, как устроен attention в LLM. Каждый токен «видит» только то, что было до него — это называется causal attention.

Когда промпт идёт дважды, на втором проходе каждый токен контекста уже «знает» про инструкцию из конца первого блока. Это как перечитать задачу после того, как узнал что именно нужно найти — детали становятся значимыми.

А латентность не растёт, потому что повторение обрабатывается на prefill-стадии — она параллельная. Модель генерирует столько же токенов на выходе, просто лучше понимает что от неё хотят.

Итого

Техника работает для всех протестированных моделей — это не баг какой-то одной архитектуры, а фундаментальное свойство того, как LLM читают текст.

Просто копируешь промпт дважды. Без кода, без настроек, прямо в чате. Точность растёт, скорость та же.

Вот в PDF выложил все подробное объяснение:

1drive.google.comNovaSapiens_2512.14982_PromptRepetition Improves Non-ReasoningLLMs (2).pdf

Источник: vc.ru

✅ Найденные теги: Prompt, Модель, новости, Ответ, Промпт, Точность

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Фото сгенерированных лиц: исследование показывает, что люди не могут отличить настоящие лица от сгенерированных
Нейросети построили капитализм за трое суток: 100 агентов Claude заперли…
Скетч: цифровой осьминог и виртуальный мир внутри компьютера с человечком.
Сцена с жестами пальцами, где один жест символизирует "VPN", а другой "KHP".
‼️Paramount купила Warner Bros. Discovery — сумма сделки составила безумные…
Скриншот репозитория GitHub "Claude Scientific Skills" AI для научных исследований.
Структура эффективного запроса Claude с элементами задачи, контекста и референса.
Эскиз и готовая веб-страница платформы для AI-дизайна в современном темном режиме.
ideipro logotyp
Image Not Found
Звёздное небо с галактиками и туманностями, космос, Вселенная, астрофотография.

Система оповещения обсерватории Рубина отправила 800 000 сигналов в первую ночь наблюдений.

Астрономы будут получать оповещения о небесных явлениях в течение нескольких минут после их обнаружения. Теренс О'Брайен, редактор раздела «Выходные». Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной…

Мар 2, 2026
Женщина с длинными тёмными волосами в синем свете, нейтральный фон.

Расследование в отношении 61-фунтовой машины, которая «пожирает» пластик и выплевывает кирпичи.

Обзор компактного пресса для мягкого пластика Clear Drop — и что будет дальше. Шон Холлистер, старший редактор Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на главной странице вашего…

Мар 2, 2026
Черный углеродное волокно с текстурой плетения, отражающий свет.

Материал будущего: как работает «бессмертный» композит

Учёные из Университета штата Северная Каролина представили композит нового поколения, способный самостоятельно восстанавливаться после серьёзных повреждений.  Речь идёт о модифицированном армированном волокном полимере (FRP), который не просто сохраняет прочность при малом весе, но и способен «залечивать» внутренние…

Мар 2, 2026
Круглый экран с изображением замка и горы, рядом электронная плата.

Круглый дисплей Waveshare для креативных проектов

Круглый 7-дюймовый сенсорный дисплей от Waveshare создан для разработчиков и дизайнеров, которым нужен нестандартный экран.  Это IPS-панель с разрешением 1 080×1 080 пикселей, поддержкой 10-точечного ёмкостного сенсора, оптической склейкой и защитным закалённым стеклом, выполненная в круглом форм-факторе.…

Мар 2, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых