我正在使用 Cuda 工具包使用 TensorFlow-GPU 训练模型,其中我尝试利用我的 GPU 进行训练。我有一个专用 GPU,Nvidia GeForce GTX 1650 Ti(4GB), 和一个 集成 GPU,AMD Radeon(TM) Vega 8 Graphics。它应该使用 NVIDIA GPU,但当我训练时,它实际上使用集成 GPU、AMD Radeon 而不是 NVIDIA。当我监控 NVIDIA GPU 的利用率时,训练时它是 0%,但专用 GPU 也有变化。但即使当我检查 GPU 的可用性时,它仍然显示为积极。 这是为什么?我该如何解决这个问题?我希望使用我的专用 GPU。在此处输入图像描述
我尝试安装tensorflow-gpu和Cuda工具包并将其集成。当我尝试识别 GPU 可用性时,它显示出积极的结果。我对它如何使用 AMD 感到困惑,而我已经安装了 NVIDIA 的所有工具(如 CUDA),实际上只有 NVIDIA。我需要使用专用 GPU 而不是集成 GPU 来完成训练。
tensorflow-gpu 不再可用。
首先安装最新版本的 nvdia 驱动程序并安装适合您的 cuda 工具包 各自的GPU
安装完这些之后,接下来安装受支持的python版本,如果我没记错的话,python3.9支持tensorflow gpu版本
简单方法: 安装蟒蛇 使用 ptyhon 3.8 和功能强大的 cuda 版本创建虚拟环境
import tensorflow as tf
gpus = tf.config.list_physical_devices('GPU')
print(gpus)
它应该打印系统中的GPU设备列表