Распределение вероятностей для tf.nn.softmax_cross_entropy_with_logits_v2

Я пытаюсь лучше понять документацию по Tensorflow для tf.nn.softmax_cross_entropy_with_logits_v2().

В документации говорится: хотя классы являются взаимоисключающими, их вероятности не должны быть. Все, что требуется, - это чтобы каждая строка меток являлась допустимым распределением вероятности Если это не так, вычисление градиента будет неверным.

Означает ли это, что для моих меток я не должен просто использовать однократное кодирование, но должен также учитывать количество экземпляров каждой метки? Например, если у меня есть 2 класса, и есть 90 примеров для класса "A" и только 10 примеров для класса "B", должен ли мой ярлык для класса A быть [0,9, 0,1] вместо просто [1, 0]?

Я надеюсь это имеет смысл. Спасибо! Джексон

0 ответов

Другие вопросы по тегам