ИИ начал «фильтровать» сам себя: нашли способ бороться с потерей контекста
В AIRI, «Сбере» и «Сколтехе» сделали детектор, который решает скрытую проблему LLM — искажения при сжатии длинных диалогов.
Когда контекст становится слишком большим, его сжимают.
И в какой-то момент это ломает смысл — модель начинает «плыть».
Теперь это можно отлавливать заранее.
Как работает решение:
— обучаемый классификатор проверяет токены до передачи в модель
— определяет, где сжатие уже портит данные
— не пропускает «битый» контекст
Если риск высокий — система:
— использует полный текст
— или подтягивает актуальные документы
По сути, это защитный слой между данными и моделью.
Главный эффект — стабильность.
ИИ меньше ошибается из-за потери смысла в длинных диалогах.
Решение уже внедрили в GigaChat Ultra — модель научилась лучше запоминать факты о пользователях и использовать их в общении.
Главный сдвиг — оптимизация больше не слепая.
Теперь система понимает, где «экономия токенов» начинает ломать качество.
Вывод: следующий этап развития ИИ — не только умнее модели, но и умнее контроль за их входными данными.





















