我正在尝试使用 onnxruntime量化工具来量化 ONNX 模型。
我的量化代码如下:
import onnx
from quantize import quantize, QuantizationMode
# Load the onnx model
model = onnx.load('3ddfa_optimized_withoutflatten.onnx')
# Quantize
quantized_model = quantize(model, quantization_mode=QuantizationMode.IntegerOps)
# Save the quantized model
onnx.save(quantized_model, 'quantized_model.onnx')
在这种方法之后,我得到的模型具有 0 维模型。我必须在 quantize 函数中传递什么参数才能获得合适的模型?