我正在尝试Roboflow的SDK,我还没有找到有关设备管理的文档。我有三个问题:
Roboflow 的 SDK 没有明确的设备管理文档,但它可能利用底层机器学习框架(如 PyTorch 或 TensorFlow)进行设备分配。以下是如何根据 ML 库中的典型行为来解决这三个问题:
模型默认加载到GPU吗?
当多个 GPU 可用时会发生什么?
cuda:0
)。但是,这取决于底层库(PyTorch、TensorFlow 等)的配置。 Roboflow SDK 可能会遵循其所使用框架的默认行为。如何定义要在哪个 GPU 中分配模型?
device = torch.device("cuda:1" if torch.cuda.is_available() else "cpu")
model.to(device)
如果未自动设置,您需要确保 Roboflow 提供对底层模型的访问以进行手动设备分配。
要确认确切的行为,您可能需要参考 Roboflow 的支持或检查 SDK 背后的设备处理框架。