模型:
Intel/bert-base-uncased-mrpc-int8-qat
这是一个通过使用 Intel® Neural Compressor 进行量化的INT8 PyTorch模型。
原始的fp32模型来自于经过微调的模型 Intel/bert-base-uncased-mrpc 。
INT8 | FP32 | |
---|---|---|
Accuracy (eval-f1) | 0.9142 | 0.9042 |
Model size (MB) | 107 | 418 |
from optimum.intel.neural_compressor.quantization import IncQuantizedModelForSequenceClassification int8_model = IncQuantizedModelForSequenceClassification( 'Intel/bert-base-uncased-mrpc-int8-qat', )
在训练期间使用了以下超参数: