康奈尔大学推出新的社交机器人,更柔软,更人性化
为什么数据污染对LLM来说是一个大问题
所以,能动手就别吵吵了
OpenAI旗下AI对话工具
AI图像和插画生成工具,测试测试测试测试测试测测试
StabilityAI推出的文本到图像生成AI
GitHub AI编程工具
百度推出的基于文心大模型的AI对话互动工具
科大讯飞推出的类ChatGPT的讯飞星火认知大模型
阿里旗下推出的AI搜索助手
模型:
iarfmoose/roberta-base-bulgarian
任务:
类库:
语言:
其他:
预印本库:
RoBERTa模型最初是在 this paper 年引入的。这是一个在保加利亚文本上预训练的版本。
该模型可用于填空任务(遮蔽语言建模)或在保加利亚语上进行微调的其他任务。
训练数据是来自互联网的未经过滤的文本,可能包含各种偏见。
该模型是在以下数据上进行训练的:
该模型使用动态遮蔽的掩码语言建模目标进行预训练,如 here 所述。
它进行了20万步的训练。由于GPU内存限制,批量大小限制为8。
作者:
数据集大小:
1.57 GB