GridSearch LightGBM с графическим процессором
Как вы используете графический процессор для GridSearch с LightGBM? Если вы просто хотите обучить модель lgb с параметрами по умолчанию, вы можете сделать:
dataset = lgb.Dataset(X_train, y_train)
lgb.train({'device': 'gpu'}, dataset)
Чтобы сделать GridSearch, было бы здорово сделать что-то вроде этого:
lgbm_classifier = lgb.LGBMClassifier()
param_grid = {
'learning_rate': [...],
'n_estimators': [...],
}
GridSearchCV(lgbm_classifier, param_grid)
Но это не похоже на lgb.LGBMClassifier()
имеет параметр для device
лайк lgb.train()
делает. Как настроить его на использование графического процессора?
1 ответ
LGBMClassifier() имеет
device
/
device_type
параметр, который может быть установлен на «gpu» в соответствии с параметром docs.
Чтобы установить его на «gpu», вы можете настроить LGBM на основе графического процессора. Несколько членов сообщества продемонстрировали, как это сделать, здесь и здесь . Второй ресурс также имеет что-то под названием
glances
(на PyPi.org), чтобы наблюдать за использованием графического процессора в соответствии с высказанными комментариями.