Марковская энтропия при вероятностях неравномерных

Я думал об информационной энтропии с точки зрения уравнения Маркова:

H = -SUM (p (i) lg (p (i)), где lg - логарифм основания 2.

Это предполагает, что все выборы у меня имеют равную вероятность. Но что, если вероятность в данном наборе вариантов неравна? Например, предположим, что StackExchange имеет 20 сайтов, и что вероятность того, что пользователь посетит любой сайт StackExchange, кроме Stackru, равна p(i). Но вероятность того, что пользователь посетит StackExchange, в 5 раз больше p(i).

Не применимо ли в этом случае уравнение Маркова? Или есть продвинутая марковская вариация, о которой я не знаю?

2 ответа

Решение

Я полагаю, что вы смешиваете 2 понятия: энтропию и уравнение Маркова. Энтропия измеряет "беспорядок" распределения по состояниям, используя заданное вами уравнение: H = -SUM(p(i)lg(p(i)), где p (i) - вероятность наблюдения каждого состояния i.

Свойство Маркова не означает, что каждое состояние имеет одинаковую вероятность. Грубо говоря, говорят, что система обладает свойством Маркова, если вероятность наблюдения состояния зависит только от наблюдения нескольких предыдущих состояний - после определенного предела дополнительные состояния, которые вы наблюдаете, не добавляют информации для предсказания следующего состояния.

Прототип марковской модели известен как цепь Маркова. Он говорит, что из каждого состояния i вы можете перейти в любое состояние с другой вероятностью, представленной в виде матрицы вероятностей:

0 1 2
0 0,2 0,5 0,3
1 0,8 0,1 0,1
2 0,3 0,3 0,4

В этом примере вероятность перехода из состояния 0 в 1 составляет 0,5 и зависит только от нахождения в состоянии 0 (знание о предыдущих состояниях не изменит эту вероятность).

Пока все состояния можно посещать, начиная с любого состояния, независимо от того, какое начальное распределение, вероятность нахождения в каждом состоянии сходится к стабильному долгосрочному распределению, и в "длинном ряду" вы будете наблюдать каждое состояние со стабильной вероятностью, которая не обязательно равна для каждого состояния.

В нашем примере мы получили бы вероятности p(0), p(1) и p(2), и тогда вы могли бы вычислить энтропию этой цепочки, используя вашу формулу.

Из вашего примера вы думаете о цепях Маркова?

Другие вопросы по тегам