模型:
l3cube-pune/telugu-bert-scratch
TeluguBERT是一个从头开始训练的泰卢固语BERT模型,使用公开可用的泰卢固语单语数据集进行训练。
有关数据集、模型和基准结果的初步详细信息可以在我们的[ paper ]中找到。
引用:
@article{joshi2022l3cubehind, title={L3Cube-HindBERT and DevBERT: Pre-Trained BERT Transformer models for Devanagari based Hindi and Marathi Languages}, author={Joshi, Raviraj}, journal={arXiv preprint arXiv:2211.11418}, year={2022} }
以下是其他从头开始训练的模型的列表: Marathi-Scratch Marathi-Tweets-Scratch Hindi-Scratch Dev-Scratch Kannada-Scratch Telugu-Scratch Malayalam-Scratch Gujarati-Scratch
下面是更好的单语Indic BERT模型的版本列表: Marathi BERT Marathi RoBERTa Marathi AlBERT
Hindi BERT Hindi RoBERTa Hindi AlBERT
Dev BERT Dev RoBERTa Dev AlBERT
Kannada BERT Telugu BERT Malayalam BERT Tamil BERT Gujarati BERT Oriya BERT Bengali BERT Punjabi BERT