AdaBoosting с несколькими различными базовыми оценками одновременно
Я знаю, что вы можете использовать AdaBoost с несколькими экземплярами одной модели (например, 600 деревьев решений, байесовских хребтов или линейных моделей). Возможно ли AdaBoost одновременно с перчаткой моделей и как?
AdaBoost([DecisionTree, BayesianRidge, LinearRegressor, ...])
У каждой автономной модели есть свои плюсы и минусы, и мне было интересно, можно ли было их собрать вместе под зонтиком.
1 ответ
Поскольку AdaBoost отделен от реализации слабого классификатора: да, вы можете. Эти архитектуры называются гибридными ансамблями. Однако это не всегда необходимо, поскольку AdaBoost требует, чтобы слабые классификаторы были немного лучше случайных. Таким образом, часто бывает достаточно иметь однородный ансамбль классификаторов. В конце вам придется протестировать его по вашему собственному сценарию, если он даст вам повышение производительности.