为什么数据污染对LLM来说是一个大问题
康奈尔大学推出新的社交机器人,更柔软,更人性化
所以,能动手就别吵吵了
字节跳动旗下团队推出的免费AI英语写作助手
StabilityAI推出的文本到图像生成AI
GitHub AI编程工具
Adobe最新推出的AI图片生成工具
AI艺术和创意辅助平台
模型:
iarfmoose/roberta-base-bulgarian
任务:
类库:
语言:
其他:
预印本库:
RoBERTa模型最初是在 this paper 年引入的。这是一个在保加利亚文本上预训练的版本。
该模型可用于填空任务(遮蔽语言建模)或在保加利亚语上进行微调的其他任务。
训练数据是来自互联网的未经过滤的文本,可能包含各种偏见。
该模型是在以下数据上进行训练的:
该模型使用动态遮蔽的掩码语言建模目标进行预训练,如 here 所述。
它进行了20万步的训练。由于GPU内存限制,批量大小限制为8。
作者:
数据集大小:
1.57 GB