描述:
我正在尝试利用我的 NVIDIA RTX 4080 笔记本电脑 GPU 使用 PyTorch 在 Python 中训练和运行 GPT 模型。然而,尽管有 GPU,我的代码始终评估为使用 CPU。
这是我的代码的简化版本:
import torch
if torch.cuda.is_available():
device = torch.device("cuda")
else:
device = torch.device("cpu")
即使在确保我的笔记本电脑的混合图形模式设置为“离散”并重新启动系统后,代码仍然会检测并使用 CPU。
我需要采取任何其他步骤来让 Python 识别并利用笔记本电脑的 GPU 进行 CUDA 操作吗?
任何有关如何解决此问题的帮助或建议将不胜感激。谢谢!
附加信息:
我安装了错误的 PyTorch 版本。我需要卸载PyTorch版本2.2.0+cpu然后使用
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
用于安装。现在,它成功检测到 CUDA 核心。