.pth
运算符。 每当我尝试用
导出时,
torch.nn.quantized.FloatFunctional()
我得到
我正在使用Ubuntu 20,安装了以下包:torch.onnx.export(torch_model, # model being run
input_example, # model input
model_name, # where to save the model
export_params=True, # store the trained parameter
opset_version=11, # the ONNX version to export
# the model to
do_constant_folding=True, # whether to execute constant
# folding for optimization
)
注意,根据一些我在代码中留下的,导出部分的推理部分完成了。后来发生分割故障。
没有人会看到发生这种情况的原因?[编辑]:当我的网络不适用于量化操作时,我可以导出网络。因此,问题不是安装损坏,而是一些量化运算符以节省的问题的问题。
well,事实证明,ONNX不支持量化的模型(但无论如何在运行时都不会警告您,它只是抛出了一个segfault)。它似乎还没有在议程上,因此解决方案可以使用张力。
我的类似问题在将火炬默认设备设置为cuda之后出现了……似乎Torch.onnx.export取决于此。 因此,要将其加入,我将默认设备更改为导出之前的CPU,然后在导出后将其更改回CUDA。希望这有帮助