Получение негативной информации с помощью сглаживания Лапласа
Можно ли получить отрицательный прирост информации, если использовать сглаживание Лапласа?
Мы знаем:
IG = H(Y) - H(Y|X)
Здесь H - функция энтропии, а IG - прирост информации.
Также:
H (Y) = -Σy P (Y = y).log2(P (Y = y))
H (Y | X) = Σx P (X = x).H (Y | X = x)
H (Y | X = x) = -Σy P (Y = y | X = x).log2(P (Y = y | X = x))
Например, предположим, что P (Y = y | X = x) = ny | x/ nx. Но возможно, что nx = 0 и ny | x = 0. Поэтому я делаю сглаживание Лапласа и определяю P (Y = y | X = x) = (ny | x+1) / (nx+ | X |). Здесь | X | обозначим количество возможных значений, которые может принять X (количество возможных разбиений, если X выбран в качестве атрибута). Возможно ли, что из-за сглаживания лапласа я получаю отрицательный прирост информации?