Как объединить несколько слабых классификаторов в один сильный классификатор с помощью алгоритма AdaBoost?

У меня есть вопрос о том, как AdaBoost объединяет слабые классификаторы для каждой итерации, в сильный классификатор. Я использую алгоритм C4.5 в качестве алгоритма слабого классификатора. И для каждой итерации он создавал разные дерево решений и альфа. Как я могу объединить эти модели в один сильный классификатор. В алгоритме было сказано, что для их объединения adaboost использует формулу альфа * гипотезы. как я могу объединить их с этой формулой?

1 ответ

Это просто. Альфа может быть рассчитана по-другому. Виола в своей газете сказала:

alpha= log(1/beta).
beta= wr/(1-wr).
wr is weighted error.
Другие вопросы по тегам