模型:
mrm8488/xlm-roberta-base-finetuned-HC3-mix
任务:
文本分类语言:
multilingual数字对象标识符:
10.57967/hf/0306其他:
xlm-roberta预印本库:
arxiv:2301.07597许可:
openrailXLM-RoBERTa(基础版)在 Hello-SimpleAI 个HC3语料库上进行微调,用于ChatGPT文本检测。
感谢 Hello-SimpleAI 做出的巨大工作!
XLM-RoBERTa模型在2.5TB的经过筛选的CommonCrawl数据上进行了预训练,包含100种语言。它是由Conneau等人在论文"Unsupervised Cross-lingual Representation Learning at Scale"中提出的,并首次在该存储库中发布。
由 Hello-SimpleAI 创建的第一个人类-ChatGPT对比语料库,命名为HC3数据集
该数据集在以下论文中介绍:
metric | value |
---|---|
F1 | 0.9736 |
from transformers import pipeline ckpt = "mrm8488/xlm-roberta-base-finetuned-HC3-mix" detector = pipeline('text-classification', model=ckpt) text = "Here your text..." result = detector(text) print(result)
@misc {manuel_romero_2023, author = { {Manuel Romero} }, title = { xlm-roberta-base-finetuned-HC3-mix (Revision b18de48) }, year = 2023, url = { https://huggingface.co/mrm8488/xlm-roberta-base-finetuned-HC3-mix }, doi = { 10.57967/hf/0306 }, publisher = { Hugging Face } }