模型:
neulab/gpt2-finetuned-wikitext103
这是一个在Wikitext-103数据集上微调的gpt2模型。
使用“滑动窗口”上下文,使用run_clm.py脚本在 https://github.com/neulab/knn-transformers 上实现的模型,达到了14.84的困惑度。
Base LM: | distilgpt2 | gpt2 |
---|---|---|
base perplexity | 18.25 | 14.84 |
+kNN-LM | 15.03 | 12.57 |
+RetoMaton | 14.70 | 12.46 |
此模型是作为ICML'2022论文的一部分发布的。
有关更多信息,请参见: https://github.com/neulab/knn-transformers
如果您使用此模型,请引用:
@inproceedings{alon2022neuro, title={Neuro-Symbolic Language Modeling with Automaton-augmented Retrieval}, author={Alon, Uri and Xu, Frank and He, Junxian and Sengupta, Sudipta and Roth, Dan and Neubig, Graham}, booktitle={International Conference on Machine Learning}, pages={468--485}, year={2022}, organization={PMLR} }