我正在尝试使用'AUCPR'作为评估标准,以使用Sklearn的RandomSearchCV和Xgboost进行早期停止,但是我无法为早期停止拟合参数指定maximize=True
。而是eval_metric最小化了AUCPR。
我已经提到了这个问题:GridSearchCV - XGBoost - Early Stopping
但是看来,尽早停止仅适用于最小化目标吗?当AUCPR最低(这不是正确的优化)时,将考虑尽早停止的最佳迭代。
xgb = XGBClassifier()
params = {
'min_child_weight': [0.1, 1, 5, 10, 50],
'gamma': [0.5, 1, 1.5, 2, 5],
'subsample': [0.6, 0.8, 1.0],
'colsample_bytree': [0.6, 0.8, 1.0],
'max_depth': [5, 10, 25, 50],
'learning_rate': [0.0001, 0.001, 0.1, 1],
'n_estimators': [50, 100, 250, 500],
'reg_alpha': [0.0001, 0.001, 0.1, 1],
'reg_lambda': [0.0001, 0.001, 0.1, 1]
}
fit_params={"early_stopping_rounds":5,
"eval_metric" : "aucpr",
"eval_set" : [[X_val, y_val]]
}
random_search = RandomizedSearchCV(xgb,
cv=folds,
param_distributions=params,
n_iter=param_comb,
scoring=make_scorer(auc_precision_recall_curve, needs_proba=True),
n_jobs=10,
verbose=10,
random_state=1001,
)
random_search.fit(X_train, y_train, **fit_params)
[似乎AUCPR最大化不适用于sklearn
我开始深入研究,发现此问题从版本0.82开始已修复