XGBoost是一个用于在R,Python,Java,Scala和C ++中构建增强树模型的库。将此标记用于特定于包的问题(即输入/输出,安装,功能)。
Centos7 R xgboost 软件包安装错误:无法安装软件包“xgboost”至 1.1.1.1
在 R 上安装 xgboost 包时收到以下错误消息: C++编译器无法创建可执行文件 为了解决这个问题,更新 gcc 和 cmake : 海湾合作委员会:4.8.5→8.5.0 g++:4.8.5 → ...
我正在使用 XGBoost 针对时间序列问题构建一个模型,其中我有日期和目标,现在我创建了该日期之外的多个特征,并且还创建了滞后和滚动特征。 但我的问题...
背景:我有一个表格数据集,我正在尝试预测价格值。有两种类型的特征可用,其中某些列是分类变量(作为虚拟变量),而其他特征...
我尝试将贝叶斯优化应用于 tidymodels 框架内的二元分类问题(XGBOOST)。 我的代码中是否存在任何缺陷 - 该模型已在 72 CPU L 上运行了 2 天......
我有一个简单的问题,涉及当我们进行嵌套重采样时提取预测。我不知道如何在数据表中提取验证集和测试集的结果: 这是我...
Python 的 Xgoost: ValueError('feature_names 可能不包含 [, ] 或 <')
Python 的 XGBClassifier 实现不接受字符 [、] 或 <' as features names. If that occurs, it raises the following: ValueError('feature_names may not contain [, ...
上下文 我正在尝试对 XGBoost 二元分类器使用自定义损失函数。 这个想法是在 XGBoost 中实现 soft-Fbeta 损失,我在这里读到了这一点。简而言之:而不是使用
Gradient Boosing 分类器和 XGBoost 用于多类预测
我正在努力理解提升算法如何用于多类标签。 对于二元分类,我知道决策是相加的,然后做出最终预测(StatsQuest
为什么在 XGBoost(多类模型)中调整超参数后我的准确率得分下降?
我正在尝试调整我构建的多类模型,但每次更改超参数时,我的准确度得分都会显着下降。我正在使用 RandomizedSearchCV 和 best_params_ 来确定哪个
我训练了一个 XGBoost 分类模型用于产品评论的情感分析。但是,在某些情况下,模型预测并不符合预期。例如,当我输入...
XGBoost 分类器 feature_names 列表的长度与 n_features 不匹配
clf = xgb.XGBClassifier(...) rs = RandomizedSearchCV(estimatpr=clf,...) rs.fit(X_train,y_train) model_xgb = rs.best_estimator_ 特征 = model_xgb.feature_names_in_.tolist() n_features = model_xgb.
数据的 XGBoost DataFrame.dtypes 必须是 int、float 或 bool
上下文:尝试拟合我的 XGBoost 模型但收到 ValueError 消息。我看过类似的帖子,但不同之处在于我的所有列都是 Int 或 Float。我没有对象,绝对c ...
是否可以通过 xgboost 训练具有多个连续输出(多重回归)的模型? 训练这样一个模型的目标是什么? 在此先感谢您的任何建议
我正在使用 XGBoost 训练来自 Kaggle 项目 Rossmann Store Sales 的 100 万行和约 15 个特征。它看起来很慢。在没有参数调整的情况下训练模型需要 30 分钟。如果我运行 GridSea ...
我是机器学习的新手,谁能给我解释一下为什么每次运行模型和调整超参数时,我都使用RandomSearch,当我得到好的参数并应用它们时,它会得到很好的...
我正在尝试对分类数据和数字数据的混合运行 XGBoost。虽然我能够训练模型并进行预测,但我无法将模型输出转储到 df 或 json。相反,我得到了错误:...
XGBoost 支持直接将特征作为类别输入,这在类别变量很多的时候非常有用。这似乎与 Shap 不兼容: 将熊猫导入为 pd 小鬼...
从谷歌云存储加载保存的 XGBBoost 模型 (.bst)
我在 Google 云存储上训练了一个 XGBoost 模型并将其保存为来自 Vertex AI (Kubeflow) 管道组件的“model.bst”文件,然后我尝试从 Vertex AI 中的笔记本加载它。 进口 x...
H2o Cluster Resources shared issue while on XGBoosts model process
我已经为我的模型使用了 XGBoost。我注意到 h2o 集群在此模型过程中不共享内存。 master A 服务器 RAM 利用率非常高,而 master B RAM 利用率非常低...
如果输入数据有 300 个特征,如果我将 XGBoost 设置为 3 棵树,每棵树的深度为 3 个级别,那么这 300 个特征不能全部使用。但是当我调用 model.get_booster() 时。