如何在训练XGBoost模型时使用集成GPU?

问题描述 投票:0回答:1

首先我想说,我是这个领域的新手,了解不多。

我有以下笔记本电脑:“dell vostro 15 5510”,配备 GPU:“Intel(R) iris(R) Xe Graphics”

我已经使用以下代码安装了 xgboost

pip install xgboost

现在正在尝试在 GPU 上训练模型:

param = {'objective': 'multi:softmax', 'num_class':22}
param['tree_method'] = 'gpu_hist'
bst = xgb.train(param, dtrain, 50, verbose_eval=True, evals=eval_set)

但它抛出以下错误:

XGBoostError: [11:16:53] C:/buildkite-agent/builds/buildkite-windows-cpu-autoscaling-group-i-0ac76685cf763591d-1/xgboost/xgboost-ci-windows/src/gbm/gbtree.cc:611: Check failed: common::AllVisibleGPUs() >= 1 (0 vs. 1) : No visible GPU is found for XGBoost.

我尝试在 google colab 上执行相同的代码,效果非常好。这就是为什么我认为我的笔记本电脑可能需要配备专用 GPU,而不是集成 GPU。我不认为这是安装问题,因为 https://xgboost.readthedocs.io/en/stable/install.html#python 声称

pip install xgboost
在 Windows 上有 GPU 支持

python xgboost
1个回答
0
投票

我也有同样的问题。 我相信它不仅需要专用GPU,还需要Nvidia GPU。不是英特尔。

© www.soinside.com 2019 - 2024. All rights reserved.