段故障导出到ONNX量化的pytorch模型

问题描述 投票:0回答:0
.pth

运算符。 每当我尝试用

导出时,
torch.nn.quantized.FloatFunctional()
我得到
我正在使用Ubuntu 20,安装了以下包:
torch.onnx.export(torch_model,               # model being run
                  input_example,             # model input
                  model_name,                # where to save the model
                  export_params=True,        # store the trained parameter
                  opset_version=11,          # the ONNX version to export
                  # the model to
                  do_constant_folding=True,  # whether to execute constant
                  # folding for optimization
                 )

注意,根据一些我在代码中留下的,导出部分的推理部分完成了。后来发生分割故障。

没有人会看到发生这种情况的原因?

[编辑]:当我的网络不适用于量化操作时,我可以导出网络。因此,问题不是安装损坏,而是一些量化运算符以节省的问题的问题。

	
well,事实证明,ONNX不支持量化的模型(但无论如何在运行时都不会警告您,它只是抛出了一个segfault)。它似乎还没有在议程上,因此解决方案可以使用张力。

我的类似问题在将火炬默认设备设置为cuda之后出现了……似乎Torch.onnx.export取决于此。
因此,要将其加入,我将默认设备更改为导出之前的CPU,然后在导出后将其更改回CUDA。希望这有帮助
    

python segmentation-fault pytorch onnx
最新问题
© www.soinside.com 2019 - 2025. All rights reserved.