Как mlxtend StackingRegressor с несколькими процессорами?

Я хотел бы использовать mlxtend StackingRegressor для объединения XGBoost,LGBM и Catboost . Но я не уверен, сколько процессоров я буду использовать в этом методе.

Например:

В XGboost:

import xgboost as xgb
xgb_pars = {'nthread': -1}
xgb1=XGBRegressor(**xgb_pars)

Тогда я знаю, что я буду использовать все ядра процессора в этом алгоритме

Но что, если я попробую это с mlxtend StackingRegressor?

Я думаю, что этот метод будет использовать процессор, который я организовал для каждого алгоритма.

Пример: XGBoost:2 LGBM:2 CatBoost:2 Метарегрессор:1

Итак, наконец, я использую 7 ядер.

1 ответ

Нет, кажется, что код соответствует моделям одна за другой, смотрите здесь. Итак, сначала вы будете использовать 2 ядра для обучения XGB, когда он закончит - 2 ядра для LGBM и так далее.

Кстати, спасибо, что поделились mlxtend- я не знал об этом. Кажется, у меня есть много полезных инструментов, которые я должен был разработать сам и, таким образом, заново изобрести колесо:) Единственная неприятная вещь, по-видимому, - отсутствие документов, но есть встроенные документы и очень хороший набор примеров.

Другие вопросы по тегам