Как объединить несколько слабых классификаторов в один сильный классификатор с помощью алгоритма AdaBoost?
У меня есть вопрос о том, как AdaBoost объединяет слабые классификаторы для каждой итерации, в сильный классификатор. Я использую алгоритм C4.5 в качестве алгоритма слабого классификатора. И для каждой итерации он создавал разные дерево решений и альфа. Как я могу объединить эти модели в один сильный классификатор. В алгоритме было сказано, что для их объединения adaboost использует формулу альфа * гипотезы. как я могу объединить их с этой формулой?
1 ответ
Это просто. Альфа может быть рассчитана по-другому. Виола в своей газете сказала:
alpha= log(1/beta).
beta= wr/(1-wr).
wr is weighted error.