我正在使用xgboost训练我的模型。我了解到在GPU上使用xgboost进行培训要快得多。由于我有2个GPU可用,因此我想同时使用两者。实际上,我对此主题有三个问题。
[运行this example时,只有第一个GPU可以工作。我试图设定gpu_id = 1
。效果很好,即另一个GPU完成了这项工作。然后我读到gpu_id = -1
将提供解决方案。显然,此参数不适用于CUDA10。我也尝试过n_gpus
,但似乎已弃用。
当我以某种循环调整参数时,这一点很重要。单个模型很适合内存,但不是数百个。
gpu_id
时。有没有办法防止这种情况?我的设置:
如何同时使用多个GPU?
tree_method ='gpu_hist',n_gpus = -1
为我使用CUDA 10.2和xgboost 0.90在python中为我工作。