RandomizedSearchCV和XGBoost +提前停止

问题描述 投票:1回答:2

我正在尝试使用'AUCPR'作为评估标准,以使用Sklearn的RandomSearchCV和Xgboost进行早期停止,但是我无法为早期停止拟合参数指定maximize=True。而是eval_metric最小化了AUCPR。

我已经提到了这个问题:GridSearchCV - XGBoost - Early Stopping

但是看来,尽早停止仅适用于最小化目标吗?当AUCPR最低(这不是正确的优化)时,将考虑尽早停止的最佳迭代。

    xgb = XGBClassifier()


    params = {
    'min_child_weight': [0.1, 1, 5, 10, 50],
    'gamma': [0.5, 1, 1.5, 2, 5],
    'subsample': [0.6, 0.8, 1.0],
    'colsample_bytree': [0.6, 0.8, 1.0],
    'max_depth': [5, 10, 25, 50],
    'learning_rate': [0.0001, 0.001, 0.1, 1],
    'n_estimators': [50, 100, 250, 500],
    'reg_alpha': [0.0001, 0.001, 0.1, 1],
    'reg_lambda': [0.0001, 0.001, 0.1, 1]
    }

    fit_params={"early_stopping_rounds":5,
                "eval_metric" : "aucpr", 
                "eval_set" : [[X_val, y_val]]
               }

        random_search = RandomizedSearchCV(xgb, 
                                           cv=folds,
                                           param_distributions=params, 
                                           n_iter=param_comb, 
                                           scoring=make_scorer(auc_precision_recall_curve, needs_proba=True), 
                                           n_jobs=10,
                                           verbose=10, 
                                           random_state=1001,
                                          )

random_search.fit(X_train, y_train, **fit_params)
python scikit-learn cross-validation xgboost early-stopping
2个回答
0
投票

[似乎AUCPR最大化不适用于sklearn

https://github.com/dmlc/xgboost/issues/3712


0
投票

我开始深入研究,发现此问题从版本0.82开始已修复

https://github.com/dmlc/xgboost/issues/4550

© www.soinside.com 2019 - 2024. All rights reserved.