英文

OpenCALM-1B

模型描述

OpenCALM是由CyberAgent株式会社开发的一套仅解码的日语语言模型套件,预训练于日本数据集。

使用方法

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained("cyberagent/open-calm-1b", device_map="auto", torch_dtype=torch.float16)
tokenizer = AutoTokenizer.from_pretrained("cyberagent/open-calm-1b")

inputs = tokenizer("AIによって私達の暮らしは、", return_tensors="pt").to(model.device)
with torch.no_grad():
    tokens = model.generate(
        **inputs,
        max_new_tokens=64,
        do_sample=True,
        temperature=0.7,
        top_p=0.9,
        repetition_penalty=1.05,
        pad_token_id=tokenizer.pad_token_id,
    )
    
output = tokenizer.decode(tokens[0], skip_special_tokens=True)
print(output)

模型细节

Model Params Layers Dim Heads Dev ppl
1232321 160M 12 768 12 19.7
1233321 400M 24 1024 16 13.8
1234321 830M 24 1536 16 11.3
1235321 1.4B 24 2048 16 10.3
1236321 2.7B 32 2560 32 9.7
1237321 6.8B 32 4096 32 8.2
  • 开发者: CyberAgent, Inc.
  • 模型类型:基于Transformer的语言模型
  • 语言:日语
  • 库: GPT-NeoX
  • 许可证:OpenCALM采用Creative Commons Attribution-ShareAlike 4.0 International许可协议( CC BY-SA 4.0 )。在使用该模型时,请适当给予CyberAgent株式会社的功绩。
    • 示例(英文):This model是CyberAgent株式会社开发的OpenCALM-XX的微调版本。原始模型采用CC BY-SA 4.0许可证发布,而此模型也采用相同的CC BY-SA 4.0许可证发布。有关更多信息,请访问: https://creativecommons.org/licenses/by-sa/4.0/
    • 示例(日文):本モデルは、株式会社サイバーエージェントによるOpenCALM-XXをファインチューニングしたものです。元のモデルはCC BY-SA 4.0ライセンスのもとで公開されており、本モデルも同じくCC BY-SA 4.0ライセンスで公開します。詳しくはこちらをご覧ください: https://creativecommons.org/licenses/by-sa/4.0/

训练数据集

  • 维基百科(日语)
  • Common Crawl(日语)

作者

Ryosuke Ishigami

引用

@software{gpt-neox-library,
  title = {{GPT-NeoX: Large Scale Autoregressive Language Modeling in PyTorch}},
  author = {Andonian, Alex and Anthony, Quentin and Biderman, Stella and Black, Sid and Gali, Preetham and Gao, Leo and Hallahan, Eric and Levy-Kramer, Josh and Leahy, Connor and Nestler, Lucas and Parker, Kip and Pieler, Michael and Purohit, Shivanshu and Songz, Tri and Phil, Wang and Weinbach, Samuel},
  url = {https://www.github.com/eleutherai/gpt-neox},
  doi = {10.5281/zenodo.5879544},
  month = {8},
  year = {2021},
  version = {0.0.1},
}