模型:
Yale-LILY/brio-xsum-cased
任务:
BRIO:给抽象摘要带来秩序
该模型可用于文本到文本生成的任务
模型创建者在 associated paper 中指出
可以在强化学习环境中应用我们的方法,其中候选摘要是动态生成的。
模型不应被用于故意为人们创造敌对或疏远的环境。
大量研究已经探讨了语言模型的偏差和公平性问题(例如, Sheng et al. (2021) 和 Bender et al. (2021) )。模型生成的预测可能包含跨受保护类别的令人不安和有害的刻板印象;身份特征;以及敏感的、社会的和职业的群体。
用户(包括直接用户和下游用户)应该意识到模型的风险、偏差和限制。需要更多信息以获得进一步的建议。
模型创建者在 associated paper 中指出
CNNDM4:是一个大规模的新闻数据集,Nallapati等人:我们将新闻文章作为源文件,其中的要点作为摘要。XSum5:是一个来自英国广播公司(BBC)的高度抽象的文章数据集。NYT6:包含来自《纽约时报》的文章和相关摘要。
模型创建者在 associated paper 中指出
我们遵循Kedzie等人(2018)的数据预处理和分割方法,并使用相关的存档摘要作为摘要。
需要更多信息
需要更多信息
需要更多信息
需要更多信息
ROUGE-1 | ROUGE-2 | ROUGE-L | |
---|---|---|---|
BART | 44.16 | 21.28 | 40.90 |
Ours | 47.78 | 23.55 | 44.57 |
ROUGE-1 | ROUGE-2 | ROUGE-L | |
---|---|---|---|
Pegasus | 47.21 | 24.56 | 39.25 |
Ours | 49.07 | 25.59 | 40.40 |
ROUGE-1 | ROUGE-2 | ROUGE-L | |
---|---|---|---|
BART | 55.78 | 36.61 | 52.60 |
Ours | 57.75 | 38.64 | 54.54 |
模型创建者在 associated paper 中指出我们认为BRIO-Ctr的出色性能归功于它在候选生成和评分两个阶段使用了相同的模型架构(BART),而SimCLS则使用RoBERTa作为评估模型。因此,BRIO-Ctr最大程度地共享了这两个阶段之间的参数,并保留了在相同数据集上预训练的Seq2Seq模型的功能。
可以使用 Machine Learning Impact calculator 在 Lacoste et al. (2019) 中介绍的方法来估计碳排放量。
模型创建者在 associated paper 中指出
将摘要形式化为序列到序列(Seq2Seq)问题
需要更多信息
需要更多信息
需要更多信息
BibTeX:
@misc{https://doi.org/10.48550/arxiv.2203.16804, doi = {10.48550/ARXIV.2203.16804}, url = {https://arxiv.org/abs/2203.16804}, author = {Liu, Yixin and Liu, Pengfei and Radev, Dragomir and Neubig, Graham}, keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences}, title = {BRIO: Bringing Order to Abstractive Summarization},
需要更多信息
需要更多信息
耶鲁大学LILY实验室与Ezi Ozoani和Hugging Face团队合作
需要更多信息
使用以下代码开始使用该模型。
点击展开from transformers import AutoTokenizer, AutoModelForSeq2SeqLM tokenizer = AutoTokenizer.from_pretrained("Yale-LILY/brio-xsum-cased") model = AutoModelForSeq2SeqLM.from_pretrained("Yale-LILY/brio-xsum-cased")