Описание тега xgbclassifier
0
ответов
XGBoost классификатор XGBClassifier min_child_weight: что это?
У нас есть самый простой пример поезда: X y 0 "a" 1 "b" И 2 простейших классификатора только с одним другим последним параметром min_child_weight: XGBClassifier(n_estimators=1, max_depth=1, reg_lambda=0, learning_rate=1, min_child_weight=0.25) а так…
13 ноя '18 в 17:40
0
ответов
ImportError: невозможно импортировать имя "XGBClassifier" из "xgboost" (неизвестное местоположение)
xgboost успешно импортирован, но я не могу импортировать XGBClassifier.
15 фев '19 в 00:02
2
ответа
Функция потерь и метрика оценки XGBoost
Я теперь запутался насчет функций потерь, используемых в XGBoost, Вот как я смущен: у нас есть objective, которая является функцией потерь, должна быть минимизирована; eval_metric: метрика, используемая для представления результатов обучения. Эти дв…
29 ноя '18 в 00:38
0
ответов
Сравнить cv балл от cross_val_score и xgb.cv
Я пытаюсь выбрать хорошую модель, скажем, между Random Forest и XGB. Для этого я делаю это: стратифицированный KFold (из выбора модели) cross_val_score (из выбора модели) получить среднее значение cv для классификатора Random Forest. Для XGB, хотя я…
16 ноя '18 в 21:13
0
ответов
XGBoost - получить вероятности после функции multi:softmax
У меня есть вопрос относительно xgboost и мультикласса. Я не использую оболочку sklearn, так как всегда борюсь с некоторыми параметрами. Я размышлял, можно ли получить вектор вероятности плюс выход softmax. Вот мой код: param = {} param['objective']…
26 фев '19 в 22:52
0
ответов
Как оптимизировать непараметрическую модель в R?
У меня есть бинарная классификация модели XGBTree. Фрейм данных, используемый для обучения модели, содержит много независимых переменных (x), и я хочу оптимизировать один x, чтобы повысить вероятность того, что результат станет 1. Интересно, как это…
14 фев '19 в 03:14
0
ответов
Как построить показатели оценки XGBoost?
У меня есть следующий код eval_set = [(X_train, y_train), (X_test, y_test)] eval_metric = ["auc","error"] В следующей части я тренирую XGBClassifier модель model = XGBClassifier() %time model.fit(X_train, y_train, eval_set=eval_set, eval_metric=eval…
17 авг '18 в 18:11
1
ответ
Модуль xgboost не распознается
Хотя есть другой вопрос по той же проблеме, решение, заявленное там, не работает для меня. Следовательно, это не дубликат или повторная публикация. И я публикую здесь свою проблему и особенности реализации. В настоящее время я работаю над PyCharm на…
03 дек '18 в 06:26
1
ответ
Имеет ли смысл использовать часть набора данных для обучения моей модели?
У меня есть набор данных, который был представлен различным покупателям для продажи товара. Цены на товары чувствительны и стандартизированы на ежедневной основе, и поэтому переговоры довольно сложно об их ценах. Я пытаюсь построить классификационну…
14 авг '19 в 04:33
1
ответ
Как передать параметры подгонки XGBoost при использовании OneVsRestClassifier?
Я хочу передать параметры подгонки xgboost через OneVsRestClassifierпригодный метод. clf = OneVsRestClassifier( XGBClassifier(objective='binary:logistic', seed=0)) # Want to pass `eval_set` and 'eval_metric' to xgboost model. clf.fit(X_train, y_trai…
31 июл '19 в 02:41
0
ответов
Термины взаимодействия в XGBClassifier для двоичной логистической классификации в python
Я создал двоичное дерево решений, используя двоичный логистический классификатор XGB в python. Значения SHAP используются для объяснения того, какие переменные оказывают наибольшее влияние на результат. Это уже запущено и работает, но я хотел бы доб…
29 авг '19 в 19:22
1
ответ
Получите индивидуальные особенности важности с XGBoost
Я обучил двоичный классификатор XGBoost, и я хотел бы выделить важность функций для каждого наблюдения, которое я даю модели (у меня уже есть важность глобальных функций). Более конкретно, я ищу способ определить, для каждого экземпляра, данного мод…
02 авг '19 в 12:24
1
ответ
Как исправить 'имя'cross_validation'не определено' ошибка в Python
Я пытаюсь запустить настройку параметров XGBClassifier и получить сообщение об ошибке "имя" cross_validation "не определено" после этой строки кода: kfold_5 = cross_validation.KFold(n = len(X), shuffle = True, n_folds = numFolds) Может быть, я не им…
27 июл '19 в 18:50
1
ответ
XGboost и XGb.DMatrix
Я получаю эту ошибку при использовании XGBoost в R Error in xgb.DMatrix(data, label = label, missing = missing) : 'data' has class 'character' and length 1791. 'data' accepts either a numeric matrix or a single filename. Ниже приведен код, который я…
12 ноя '19 в 15:50
1
ответ
XGBoost, XGBClassifier: неизвестная ошибка целевой функции
Я пытаюсь обучить XGBClassifier, но получаю эту ошибку. Я использую xgboost версии 1.1.0. Я использовал pip install xgboost для установки xgboost, и я также обновил его. param_dict = {'n_estimators':i, 'max_depth':j, 'objective':'binary:logistic'} c…
13 июн '20 в 05:39
1
ответ
H2O-3 Flow (UI) и XGBoost
Я получаю сообщение об ошибке ниже, когда выбираю запуск XGBOOST через меню в H2O-3 потока пользовательского интерфейса или когда я включаю его при запуске всех архитектур (также через параметры "AutoML" в H2O-3течь). Я выбираю только столбец поезд …
27 окт '19 в 20:48
1
ответ
KeyError: 'base_score' while fitting XGBClassifier
Используя Gridsearch, я нахожу наиболее оптимальные гиперпараметры после подбора моих данных обучения: model_xgb = XGBClassifier() n_estimators = [50, 100, 150, 200] max_depth = [2, 4, 6, 8] param_grid = dict(max_depth=max_depth, n_estimators=n_esti…
05 июн '20 в 10:57
0
ответов
Почему вывод cross_validate отличается от цикла жесткого кода при использовании XGBClassifier?
Код #1 Конвейер передачи с PCA, шаги XGBClassifier к функции scikit-learn cross_validate from xgboost import XGBClassifier from sklearn.model_selection import cross_validate, LeaveOneOut from sklearn.pipeline import Pipeline from sklearn.decompositi…
08 окт '19 в 15:52
0
ответов
Почему наиболее оцененный XGBClassifier работает иначе, чем стандартный классификатор, соответствующий лучшим параметрам?
Я пытаюсь понять, почему лучший оценщик, найденный RandomizedSearchCV, работает иначе, чем ванильная модель, соответствующая лучшим параметрам, найденным для наилучшего оценщика. Пока у меня есть классификатор: clf = XGBClassifier() Пространство пар…
12 окт '19 в 14:55
0
ответов
xgb.train дает низкую точность по сравнению с .fit()
Я создаю модель с xgboost для своих данных, которая имеет около 50000 строк и около 550 столбцов после кодирования onehot. Моя целевая переменная - это мультиклассовая классификация со 150 переменными. Сначала я обучил свою модель с параметрами по у…
15 окт '19 в 12:50