Получение негативной информации с помощью сглаживания Лапласа

Можно ли получить отрицательный прирост информации, если использовать сглаживание Лапласа?

Мы знаем:

IG = H(Y) - H(Y|X)

Здесь H - функция энтропии, а IG - прирост информации.

Также:

H (Y) = -Σy P (Y = y).log2(P (Y = y))

H (Y | X) = Σx P (X = x).H (Y | X = x)

H (Y | X = x) = -Σy P (Y = y | X = x).log2(P (Y = y | X = x))

Например, предположим, что P (Y = y | X = x) = ny | x/ nx. Но возможно, что nx = 0 и ny | x = 0. Поэтому я делаю сглаживание Лапласа и определяю P (Y = y | X = x) = (ny | x+1) / (nx+ | X |). Здесь | X | обозначим количество возможных значений, которые может принять X (количество возможных разбиений, если X выбран в качестве атрибута). Возможно ли, что из-за сглаживания лапласа я получаю отрицательный прирост информации?

0 ответов

Другие вопросы по тегам