OpenAI объяснили, почему ИИ галлюцинирует.
Оказывается, модели придумывают факты не случайно, дело в самой системе обучения. При тренировке «угадайка» оценивается выше, чем просто «я не знаю».
Решение — наказывать модель за уверенные ошибки сильнее, чем за признание неопределенности. Только так можно сделать ИИ более честным и надежным.
В следующий раз не жалеем ChatGPT за очередной выдуманный факт























