模型:
wannaphong/thaigpt-next-125m
它对GPT-Neo模型进行了泰语的微调。
GitHub: https://github.com/wannaphong/thaigpt-next
用于对该模型进行微调的数据集:
最大长度:280
训练清单数量:1,697,254个清单
训练次数:2个时期
训练损失:0.285500
您可以通过huggingface或PyThaiNLP(将来)进行少样本学习或文本生成(不建议)。
huggingface模型中的thaigpt-next-125m: https://huggingface.co/wannaphong/thaigpt-next-125m
版权所有 (C) 2021 Wannaphong Phatthiyaphaibun
根据Apache License, Version 2.0("许可证")获得许可;除非符合许可证规定,否则不得使用此文件。您可以在以下位置获取许可证的副本
http://www.apache.org/licenses/LICENSE-2.0
除非适用法律要求或书面同意,根据许可证分发的软件基于"按原样"的基础分发,不附带任何明示或暗示的担保或条件。请参阅许可证以获取详细的管理权限和限制。
Wannaphong Phatthiyaphaibun