模型:
valhalla/m2m100_tiny_random
任务:
文生文语言:
multilingual需要更多信息
该模型可用于文本到文本生成任务。
需要更多信息。
模型不应该被用于故意创建对人们敌对或疏远的环境。
已经有很多研究探讨了语言模型的偏见和公平问题(参见,例如, Sheng et al. (2021) 和 Bender et al. (2021) )。该模型生成的预测可能包含有关受保护类别、身份特征以及敏感、社会和职业群体的破坏性和有害的刻板印象。
用户(直接和下游)应该了解模型的风险、偏见和局限。需要更多信息以获得进一步的建议。
需要更多信息
需要更多信息
需要更多信息
需要更多信息
需要更多信息
需要更多信息
需要更多信息
需要更多信息
可以使用 Machine Learning Impact calculator 中提供的方法来估算碳排放量。
需要更多信息
需要更多信息
需要更多信息
需要更多信息。
BibTeX:
需要更多信息
@misc{fan2020englishcentric, title={Beyond English-Centric Multilingual Machine Translation}, author={Angela Fan and Shruti Bhosale and Holger Schwenk and Zhiyi Ma and Ahmed El-Kishky and Siddharth Goyal and Mandeep Baines and Onur Celebi and Guillaume Wenzek and Vishrav Chaudhary and Naman Goyal and Tom Birch and Vitaliy Liptchinsky and Sergey Edunov and Edouard Grave and Michael Auli and Armand Joulin}, year={2020}, eprint={2010.11125}, archivePrefix={arXiv}, primaryClass={cs.CL} }
APA:
需要更多信息
需要更多信息
查看 model hub 获取更多精细调整的版本。
Suraj Patil 与 Ezi Ozoani 和 Hugging Face 团队合作
需要更多信息
使用下面的代码开始使用该模型。
点击展开from transformers import AutoTokenizer, AutoModelForSeq2SeqLM tokenizer = AutoTokenizer.from_pretrained("valhalla/m2m100_tiny_random") model = AutoModelForSeq2SeqLM.from_pretrained("valhalla/m2m100_tiny_random")