模型:
colorfulscoop/sbert-base-ja
此存储库包含用于日语的Sentence BERT基础模型。
该模型使用了一个预训练模型:日语BERT模型 colorfulscoop/bert-base-ja v1.0,发布在 Creative Commons Attribution-ShareAlike 3.0 。
使用了 Japanese SNLI dataset 发布在 Creative Commons Attribution-ShareAlike 4.0 的数据进行训练。
初始训练数据集被分为训练/验证数据集。最终准备了以下数据。
该模型使用来自 sentence-transformers 的SentenceTransformer模型。模型的详细信息如下。
>>> from sentence_transformers import SentenceTransformer >>> SentenceTransformer("colorfulscoop/sbert-base-ja") SentenceTransformer( (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False}) )
该模型使用了3个标签的SNLI的Softmax分类器对 colorfulscoop/bert-base-ja 进行微调。使用学习率为2e-05的AdamW优化器,在10%的训练数据上进行了线性预热。模型使用批量大小为8进行了1个epoch的训练。
注意:在原始的 Sentence BERT 论文中,SNLI和多样性NLI训练的模型批量大小为16。在这个模型中,数据集大约比原始数据集小一半,因此批量大小设置为原始批量大小16的一半。
训练在Ubuntu 18.04.5 LTS上使用一块RTX 2080 Ti进行。
训练后,测试集准确率达到0.8529。
训练代码位于 a GitHub repository 中。
首先,安装依赖项。
$ pip install sentence-transformers==2.0.0
然后初始化SentenceTransformer模型,并使用encode方法转换为向量。
>>> from sentence_transformers import SentenceTransformer >>> model = SentenceTransformer("colorfulscoop/sbert-base-ja") >>> sentences = ["外をランニングするのが好きです", "海外旅行に行くのが趣味です"] >>> model.encode(sentences)
版权所有©2021 Colorful Scoop
此存储库中包含的所有模型均根据 Creative Commons Attribution-ShareAlike 4.0 的许可证进行许可。
免责声明:使用此模型的风险由您自行承担。Colorful Scoop对模型的任何输出不提供任何保证或担保。对于由模型输出引起的任何问题、损失或损害,Colorful Scoop概不负责。
该模型使用了以下预训练模型。
该模型使用以下数据进行微调。