模型火车系统:AWS Ubuntu p2.xlarge,R 3.4.0,mxnet_1.0.1。保存通过:
mx.model.save(A3.MXmodel, "Action/A3.MXmodel", iteration = 3000)
在同一系统上加载可以正常工作:
A3.MXmodel <- mx.model.load("A3.MXmodel", iteration=3000)
A3.pred <- predict(A3.MXmodel, as.matrix(nNewVector))
A3.pred.label = max.col(t(A3.pred))-1
将模型文件移动到新系统(g2.xlarge上的第一个实例BUT的AMI克隆)。并试图预测:
A3.pred <- predict(A3.MXmodel, as.matrix(nNewVector))
导致rstudio立即崩溃,没有数据保存或错误消息。我可以通过安装检查确认mxnet正在处理新实例:
library(mxnet)
a <- mx.nd.ones(c(2,3), ctx = mx.gpu())
b <- a * 2 + 1
b
我是否必须在新实例上指定模型基于GPU设备的某个位置?可以在具有CPU mxnet构建的CPU实例上运行在GPU实例上训练的模型吗?
回答具体问题:
我是否必须在新实例上指定模型基于GPU设备的某个位置?
没有存储模型的结构和参数,但没有硬件编码。
可以在具有CPU mxnet构建的CPU实例上运行在GPU实例上训练的模型吗?
是。这可能是非常需要的 - 在GPU上训练速度,对CPU进行推理,因为它在计算和成本上更便宜。