模型:
Intel/distilbert-base-uncased-finetuned-sst-2-english-int8-dynamic
模型描述: 该模型是在SST-2数据集上进行微调的,通过使用动态量化的方式将Fine-Tuned的模型进行了压缩。
要加载量化模型,可以按照以下步骤进行:
from optimum.intel.neural_compressor.quantization import IncQuantizedModelForSequenceClassification model = IncQuantizedModelForSequenceClassification.from_pretrained("Intel/distilbert-base-uncased-finetuned-sst-2-english-int8-dynamic")
这是使用 Intel® Neural Compressor 将模型量化为INT8的ONNX模型。
原始的fp32模型基于Fine-Tuned的模型 DistilBERT 。
测试结果INT8 | FP32 | |
---|---|---|
Accuracy (eval-accuracy) | 0.9025 | 0.9106 |
Model size (MB) | 165 | 256 |
from optimum.onnxruntime import ORTModelForSequenceClassification model = ORTModelForSequenceClassification.from_pretrained('Intel/distilbert-base-uncased-finetuned-sst-2-english-int8-dynamic')