模型:

neulab/codebert-c

英文

这是一个微软/codebert-base-mlm模型,使用32个batch_size,在codeparrot/github-code-clean数据集上进行了1,000,000步的训练,用于掩码语言模型任务。

它旨在用于CodeBERTScore: https://github.com/neulab/code-bert-score ,但也可用于任何其他模型或任务。

详细信息,请参阅: https://github.com/neulab/code-bert-score

引用

如果您将此模型用于研究,请引用:

@article{zhou2023codebertscore,
  url = {https://arxiv.org/abs/2302.05527},
  author = {Zhou, Shuyan and Alon, Uri and Agarwal, Sumit and Neubig, Graham},
  title = {CodeBERTScore: Evaluating Code Generation with Pretrained Models of Code},  
  publisher = {arXiv},
  year = {2023},
}