以下模型是从 official Google BERT repository 中转换得到的 PyTorch 预训练模型的 TensorFlow checkpoint。
这是较小的预训练版BERT变种之一,连同 bert-tiny , bert-mini 和 bert-small 一起被引入到研究中《好读的学生学得更好:关于预训练紧凑模型的重要性》( arxiv )中,并在研究《NLI中的泛化:超越简单启发式方法的方式》( arXiv )中移植到HF。这些模型应该在一个下游任务中进行训练。
如果您使用了这个模型,请考虑引用这两篇论文:
@misc{bhargava2021generalization, title={Generalization in NLI: Ways (Not) To Go Beyond Simple Heuristics}, author={Prajjwal Bhargava and Aleksandr Drozd and Anna Rogers}, year={2021}, eprint={2110.01518}, archivePrefix={arXiv}, primaryClass={cs.CL} } @article{DBLP:journals/corr/abs-1908-08962, author = {Iulia Turc and Ming{-}Wei Chang and Kenton Lee and Kristina Toutanova}, title = {Well-Read Students Learn Better: The Impact of Student Initialization on Knowledge Distillation}, journal = {CoRR}, volume = {abs/1908.08962}, year = {2019}, url = {http://arxiv.org/abs/1908.08962}, eprinttype = {arXiv}, eprint = {1908.08962}, timestamp = {Thu, 29 Aug 2019 16:32:34 +0200}, biburl = {https://dblp.org/rec/journals/corr/abs-1908-08962.bib}, bibsource = {dblp computer science bibliography, https://dblp.org} }
该模型的配置:
其他值得注意的模型:
原始实现和更多信息可以在 this Github repository 中找到。
Twitter: @prajjwal_1