我正在创建一个 YOLOV8 模型并加载一些预训练的权重。然后我想使用该模型对某些图像进行推理,但是我想指定推理应该在 GPU 上运行——在创建 YOLO 模型时是否可以这样做?
我正在这样加载模型:
model = YOLO("yolov8n.pt")
但是当我传入这样的设备时:
model = YOLO("yolov8n.pt", device='gpu')
我得到一个意外的参数错误:
TypeError: __init__() got an unexpected keyword argument 'device'
为了将 YOLO 模型移动到 GPU,您必须使用 pytorch
.to
语法,如下所示:
model = YOLO("yolov8n.pt", device='gpu')
model.to('cuda')
一些有用的文档这里