模型:

allenai/PRIMERA-multinews

英文

语言:英文

许可证:apache-2.0

PRIMERA的HF版本模型:金字塔基于层级注意力的遮蔽句子预训练用于多文档摘要生成(ACL 2022)。

原始代码可在 here 找到。您可以在原始的GitHub存储库中找到用于训练/评估模型的脚本和笔记本。

  • 注意:由于原始Longformer和Huggingface LED模型实现之间的差异,转换模型的结果略有不同。我们对经过微调和未经微调的模型进行了验证,并在下面显示了结果:

| 模型 | Rouge-1 | Rouge-2 | Rouge-L |

| --- | ----------- |----------- |----------- |

| PRIMERA | 42.0 | 13.6 | 20.8|

| PRIMERA-hf | 41.7 |13.6 | 20.5|

| PRIMERA(经过微调) | 49.9 | 21.1 | 25.9|

| PRIMERA-hf(经过微调) | 49.9 | 20.9 | 25.8|

您可以通过

from transformers import (

    AutoTokenizer,

    LEDConfig,

    LEDForConditionalGeneration,

)

tokenizer = AutoTokenizer.from_pretrained('allenai/PRIMERA')

config=LEDConfig.from_pretrained('allenai/PRIMERA')

model = LEDForConditionalGeneration.from_pretrained('allenai/PRIMERA')
来使用它。