Описание тега xgbclassifier

0 ответов

XGBoost классификатор XGBClassifier min_child_weight: что это?

У нас есть самый простой пример поезда: X y 0 "a" 1 "b" И 2 простейших классификатора только с одним другим последним параметром min_child_weight: XGBClassifier(n_estimators=1, max_depth=1, reg_lambda=0, learning_rate=1, min_child_weight=0.25) а так…
13 ноя '18 в 17:40
0 ответов

ImportError: невозможно импортировать имя "XGBClassifier" из "xgboost" (неизвестное местоположение)

xgboost успешно импортирован, но я не могу импортировать XGBClassifier.
2 ответа

Функция потерь и метрика оценки XGBoost

Я теперь запутался насчет функций потерь, используемых в XGBoost, Вот как я смущен: у нас есть objective, которая является функцией потерь, должна быть минимизирована; eval_metric: метрика, используемая для представления результатов обучения. Эти дв…
29 ноя '18 в 00:38
0 ответов

Сравнить cv балл от cross_val_score и xgb.cv

Я пытаюсь выбрать хорошую модель, скажем, между Random Forest и XGB. Для этого я делаю это: стратифицированный KFold (из выбора модели) cross_val_score (из выбора модели) получить среднее значение cv для классификатора Random Forest. Для XGB, хотя я…
16 ноя '18 в 21:13
0 ответов

XGBoost - получить вероятности после функции multi:softmax

У меня есть вопрос относительно xgboost и мультикласса. Я не использую оболочку sklearn, так как всегда борюсь с некоторыми параметрами. Я размышлял, можно ли получить вектор вероятности плюс выход softmax. Вот мой код: param = {} param['objective']…
26 фев '19 в 22:52
0 ответов

Как оптимизировать непараметрическую модель в R?

У меня есть бинарная классификация модели XGBTree. Фрейм данных, используемый для обучения модели, содержит много независимых переменных (x), и я хочу оптимизировать один x, чтобы повысить вероятность того, что результат станет 1. Интересно, как это…
14 фев '19 в 03:14
0 ответов

Как построить показатели оценки XGBoost?

У меня есть следующий код eval_set = [(X_train, y_train), (X_test, y_test)] eval_metric = ["auc","error"] В следующей части я тренирую XGBClassifier модель model = XGBClassifier() %time model.fit(X_train, y_train, eval_set=eval_set, eval_metric=eval…
17 авг '18 в 18:11
1 ответ

Модуль xgboost не распознается

Хотя есть другой вопрос по той же проблеме, решение, заявленное там, не работает для меня. Следовательно, это не дубликат или повторная публикация. И я публикую здесь свою проблему и особенности реализации. В настоящее время я работаю над PyCharm на…
1 ответ

Имеет ли смысл использовать часть набора данных для обучения моей модели?

У меня есть набор данных, который был представлен различным покупателям для продажи товара. Цены на товары чувствительны и стандартизированы на ежедневной основе, и поэтому переговоры довольно сложно об их ценах. Я пытаюсь построить классификационну…
14 авг '19 в 04:33
1 ответ

Как передать параметры подгонки XGBoost при использовании OneVsRestClassifier?

Я хочу передать параметры подгонки xgboost через OneVsRestClassifierпригодный метод. clf = OneVsRestClassifier( XGBClassifier(objective='binary:logistic', seed=0)) # Want to pass `eval_set` and 'eval_metric' to xgboost model. clf.fit(X_train, y_trai…
31 июл '19 в 02:41
0 ответов

Термины взаимодействия в XGBClassifier для двоичной логистической классификации в python

Я создал двоичное дерево решений, используя двоичный логистический классификатор XGB в python. Значения SHAP используются для объяснения того, какие переменные оказывают наибольшее влияние на результат. Это уже запущено и работает, но я хотел бы доб…
1 ответ

Получите индивидуальные особенности важности с XGBoost

Я обучил двоичный классификатор XGBoost, и я хотел бы выделить важность функций для каждого наблюдения, которое я даю модели (у меня уже есть важность глобальных функций). Более конкретно, я ищу способ определить, для каждого экземпляра, данного мод…
1 ответ

Как исправить 'имя'cross_validation'не определено' ошибка в Python

Я пытаюсь запустить настройку параметров XGBClassifier и получить сообщение об ошибке "имя" cross_validation "не определено" после этой строки кода: kfold_5 = cross_validation.KFold(n = len(X), shuffle = True, n_folds = numFolds) Может быть, я не им…
1 ответ

XGboost и XGb.DMatrix

Я получаю эту ошибку при использовании XGBoost в R Error in xgb.DMatrix(data, label = label, missing = missing) : 'data' has class 'character' and length 1791. 'data' accepts either a numeric matrix or a single filename. Ниже приведен код, который я…
12 ноя '19 в 15:50
1 ответ

XGBoost, XGBClassifier: неизвестная ошибка целевой функции

Я пытаюсь обучить XGBClassifier, но получаю эту ошибку. Я использую xgboost версии 1.1.0. Я использовал pip install xgboost для установки xgboost, и я также обновил его. param_dict = {'n_estimators':i, 'max_depth':j, 'objective':'binary:logistic'} c…
13 июн '20 в 05:39
1 ответ

H2O-3 Flow (UI) и XGBoost

Я получаю сообщение об ошибке ниже, когда выбираю запуск XGBOOST через меню в H2O-3 потока пользовательского интерфейса или когда я включаю его при запуске всех архитектур (также через параметры "AutoML" в H2O-3течь). Я выбираю только столбец поезд …
27 окт '19 в 20:48
1 ответ

KeyError: 'base_score' while fitting XGBClassifier

Используя Gridsearch, я нахожу наиболее оптимальные гиперпараметры после подбора моих данных обучения: model_xgb = XGBClassifier() n_estimators = [50, 100, 150, 200] max_depth = [2, 4, 6, 8] param_grid = dict(max_depth=max_depth, n_estimators=n_esti…
05 июн '20 в 10:57
0 ответов

Почему вывод cross_validate отличается от цикла жесткого кода при использовании XGBClassifier?

Код #1 Конвейер передачи с PCA, шаги XGBClassifier к функции scikit-learn cross_validate from xgboost import XGBClassifier from sklearn.model_selection import cross_validate, LeaveOneOut from sklearn.pipeline import Pipeline from sklearn.decompositi…
08 окт '19 в 15:52
0 ответов

Почему наиболее оцененный XGBClassifier работает иначе, чем стандартный классификатор, соответствующий лучшим параметрам?

Я пытаюсь понять, почему лучший оценщик, найденный RandomizedSearchCV, работает иначе, чем ванильная модель, соответствующая лучшим параметрам, найденным для наилучшего оценщика. Пока у меня есть классификатор: clf = XGBClassifier() Пространство пар…
0 ответов

xgb.train дает низкую точность по сравнению с .fit()

Я создаю модель с xgboost для своих данных, которая имеет около 50000 строк и около 550 столбцов после кодирования onehot. Моя целевая переменная - это мультиклассовая классификация со 150 переменными. Сначала я обучил свою модель с параметрами по у…