我在 ML 世界中还是个新手,对于使用 XGBoost 模型完成的项目,我尝试使用 GPU 进行 GridSearch 和参数调整。不幸的是,我感觉我的 GPU 没有被使用,因为显示的有关每次折叠运行时间的信息在 CPU 上约为 0,1 秒,使用“gpu_hist”参数时约为 0,9 秒。
我安装了CUDA工具包,所以这不是问题。
您知道如何让 GPU 工作吗? 这个问题是否是由于我的 CPU 中的集成显卡造成的?
我使用 jupyter Notebook 和 pycharm 也遇到同样的问题。
我的CPU:AMD Ryzen 9 7900x 我的 GPU:Nvidia GeForce RTX 3070
提前谢谢您!
我尝试运行 pytorch 命令
import torch
use_cuda = torch.cuda.is_available()
if use_cuda:
print('__CUDNN VERSION:', torch.backends.cudnn.version())
print('__Number CUDA Devices:', torch.cuda.device_count())
print('__CUDA Device Name:',torch.cuda.get_device_name(0))
print('__CUDA Device Total Memory [GB]:',torch.cuda.get_device_properties(0).total_memory/1e9)
查看我的 GPU 是否被识别,但一切似乎都正常,因为我得到:
__CUDNN版本:8700
__CUDA 设备数量:1
__CUDA 设备名称:NVIDIA GeForce RTX 3070
__CUDA 设备总内存 [GB]:8.589410304