英文

bart-distractor-generation-both

模型描述

这个模型是一个序列-序列的干扰项生成器,它以答案、问题和上下文作为输入,并生成一个干扰项作为输出。它基于一个预训练的bart-base模型。该模型使用了平行MLM和答案负面规则化进行训练,详见 Paper 。具体信息请参阅 https://github.com/voidful/BDG

预期用途和限制

该模型训练用于生成类似于考试风格的多项选择干扰项。该模型在处理完整句子答案时效果最佳。

使用方法

该模型将上下文、问题和答案连接起来作为输入序列,并生成完整的干扰项句子作为输出序列。最大序列长度为1024个标记。输入应按以下格式组织:

context </s> question </s> answer

然后,可以对输入序列进行编码,并将其作为`generate()`方法中的`input_ids`参数传递给模型。

详细信息请参阅 https://github.com/voidful/BDG

限制和偏差

该模型的能力仅限于生成与 RACE 中的干扰项相似的风格。生成的干扰项可能具有潜在的主导性或反映上下文中存在的偏见。如果上下文过短或完全缺失,或者上下文、问题和答案不匹配,生成的干扰项可能会是不连贯的。