模型:
Geotrend/bert-base-en-zh-cased
任务:
填充掩码许可:
apache-2.0我们正在分享能够处理多种语言的较小版本。
与 distilbert-base-multilingual-cased 不同,我们的版本提供了与原始模型完全相同的表示,从而保留了原始的准确性。
有关更多信息,请访问我们的论文: Load What You Need: Smaller Versions of Multilingual BERT 。
from transformers import AutoTokenizer, AutoModel tokenizer = AutoTokenizer.from_pretrained("Geotrend/bert-base-en-zh-cased") model = AutoModel.from_pretrained("Geotrend/bert-base-en-zh-cased")
要生成其他较小版本的多语言转换器,请访问 our Github repo 。
@inproceedings{smallermbert, title={Load What You Need: Smaller Versions of Mutlilingual BERT}, author={Abdaoui, Amine and Pradel, Camille and Sigel, Grégoire}, booktitle={SustaiNLP / EMNLP}, year={2020} }
如有任何问题、反馈或需求,请联系 amine@geotrend.fr。