模型:
Geotrend/distilbert-base-pl-cased
我们正在分享处理自定义语言数量的更小版本的 distilbert-base-multilingual-cased 。
我们的版本产生的表示与原始模型完全相同,保持了原始准确性。
有关更多信息,请访问我们的论文: Load What You Need: Smaller Versions of Multilingual BERT 。
from transformers import AutoTokenizer, AutoModel tokenizer = AutoTokenizer.from_pretrained("Geotrend/distilbert-base-pl-cased") model = AutoModel.from_pretrained("Geotrend/distilbert-base-pl-cased")
要生成其他更小的多语言转换器版本,请访问 our Github repo 。
@inproceedings{smallermdistilbert, title={Load What You Need: Smaller Versions of Mutlilingual BERT}, author={Abdaoui, Amine and Pradel, Camille and Sigel, Grégoire}, booktitle={SustaiNLP / EMNLP}, year={2020} }
如有任何问题、反馈或请求,请联系amine@geotrend.fr。