模型:
neulab/gpt2-large-finetuned-wikitext103
这是一个gpt2-large模型,是在Wikitext-103数据集上进行微调的。
使用"滑动窗口"上下文,在 https://github.com/neulab/knn-transformers 的run_clm.py脚本中,它达到了10.56的困惑度。
Base LM: | distilgpt2 | gpt2 |
---|---|---|
base perplexity | 18.25 | 14.84 |
+ kNN-LM | 15.03 | 12.57 |
+ RetoMaton | 14.70 | 12.46 |
此模型是作为 "Neuro-Symbolic Language Modeling with Automaton-augmented Retrieval" (ICML'2022)论文的一部分发布的。
更多信息请参阅: https://github.com/neulab/knn-transformers
如果您使用了此模型,请引用:
@inproceedings{alon2022neuro, title={Neuro-Symbolic Language Modeling with Automaton-augmented Retrieval}, author={Alon, Uri and Xu, Frank and He, Junxian and Sengupta, Sudipta and Roth, Dan and Neubig, Graham}, booktitle={International Conference on Machine Learning}, pages={468--485}, year={2022}, organization={PMLR} }