运行 XGBoost 时不使用 GPU

问题描述 投票:0回答:0

我在 ML 世界中还是个新手,对于使用 XGBoost 模型完成的项目,我尝试使用 GPU 进行 GridSearch 和参数调整。不幸的是,我感觉我的 GPU 没有被使用,因为显示的有关每次折叠运行时间的信息在 CPU 上约为 0,1 秒,使用“gpu_hist”参数时约为 0,9 秒。

我安装了CUDA工具包,所以这不是问题。

这是传递“gpu_hist”树方法参数时发生的情况: gpu_hist

如果没有它,会发生以下情况: without gpu parameters

您知道如何让 GPU 工作吗? 这个问题是否是由于我的 CPU 中的集成显卡造成的?

我使用 jupyter Notebook 和 pycharm 也遇到同样的问题。

我的CPU:AMD Ryzen 9 7900x 我的 GPU:Nvidia GeForce RTX 3070

提前谢谢您!

我尝试运行 pytorch 命令

import torch
use_cuda = torch.cuda.is_available()

if use_cuda:
    print('__CUDNN VERSION:', torch.backends.cudnn.version())
    print('__Number CUDA Devices:', torch.cuda.device_count())
    print('__CUDA Device Name:',torch.cuda.get_device_name(0))
    print('__CUDA Device Total Memory [GB]:',torch.cuda.get_device_properties(0).total_memory/1e9)

查看我的 GPU 是否被识别,但一切似乎都正常,因为我得到:

__CUDNN版本:8700

__CUDA 设备数量:1

__CUDA 设备名称:NVIDIA GeForce RTX 3070

__CUDA 设备总内存 [GB]:8.589410304

python machine-learning gpu xgboost
© www.soinside.com 2019 - 2024. All rights reserved.