"Консенсус" среди максимальных энтропийных классификаций
Представьте, что у нас есть три класса: A, B и C, и мы классифицируем документ "d" с использованием стандартного классификатора MaxEnt и получаем следующие вероятности:
P(d, A) = 0.50
P(d, B) = 0.25
P(d, C) = 0.25
Я чувствую, что это сильно отличается от этого набора вероятностей:
P(d, A) = 0.50
P(d, B) = 0.49
P(d, C) = 0.01
Есть ли способ оценить разницу между этими двумя?
2 ответа
Проблема, с которой вы сталкиваетесь, часто называется "консенсусом" среди классификаторов. Так как многолинейный MaxEnt можно рассматривать как N независимых классификаторов, вы можете рассматривать его как группу моделей, "голосующих" за разные классы.
В настоящее время существует множество мер для расчета такого "консенсуса", в том числе:
- "наивный" расчет маржи - разница между вероятностью "победного" класса и второй - чем больше маржа - тем увереннее классификация
- энтропия - чем меньше энтропия результирующего распределения вероятности, тем более уверенным является решение
- некоторые дальнейшие методы, включающие расхождение KL и т. д.
В общем, вы должны подумать о методах обнаружения "однородности" полученного распределения (что подразумевает менее уверенное решение) или "пикантности" (что указывает на более уверенную классификацию).
То, что вы ищете, это кросс-энтропия: в частности, вы хотите рассчитать стоимость аппроксимации истинного распределения с одним выходом по вашему классификатору. Вероятностные мультиклассовые классификаторы будут оптимизировать это напрямую во многих случаях. Посмотрите на это.