Создание интерпретируемых правил для характеристики выявленных аномалий
Делиться

Всякий раз, когда вы демонстрируете заинтересованным сторонам результаты обнаружения аномалий, сразу же возникает вопрос: «Почему?».
На практике простого указания на аномалию редко бывает достаточно. Понимание того, что пошло не так, имеет решающее значение для определения наилучшего дальнейшего действия.
Однако большинство методов обнаружения аномалий, основанных на машинном обучении, ограничиваются лишь получением оценки аномалии. Они по своей природе являются «чёрным ящиком», что затрудняет интерпретацию их результатов. Почему же у этого образца оценка аномалии выше, чем у соседних?
Чтобы решить эту проблему объяснимости, вы, вероятно, уже прибегали к популярным методам ИИ с интерпретацией (XAI). Возможно, вы рассчитываете важность признаков, чтобы определить, какие переменные обуславливают аномалию, или проводите контрфактуальный анализ, чтобы оценить, насколько случай близок к норме.
Они полезны, но что, если бы вы могли сделать больше? Что, если бы вы могли вывести набор интерпретируемых правил ЕСЛИ-ТО , характеризующих выявленные аномалии?
Именно это и обещает алгоритм RuleFit [1].
В этой статье мы рассмотрим, как интуитивно работает алгоритм RuleFit, как его можно применять для объяснения обнаруженных аномалий, а также рассмотрим конкретный пример.
Источник: towardsdatascience.com



























