英文

japanese-gpt-neox-3.6b-instruction-sft

概述

这个存储库提供了一个36亿参数的日语GPT-NeoX模型。该模型基于 rinna/japanese-gpt-neox-3.6b 并经过微调,用作按照指示进行交流的代理人。

输入/输出格式

采用了特殊的格式来构造输入。

  • 输入提示被格式化为 ユーザー 和 システム 之间的对话。
  • 每个输入话语包括(1)说话者( "ユーザー" 或 "システム" ),(2)冒号( ":" ),(3)空格( " " ),和(4)话语内容(例如 "世界で一番高い山は?" )。
  • 输入提示应以 "システム: " 结尾,以通知模型生成回应。
  • 由于模型的分词器不认识 "\n" ,因此使用特殊的换行符 "<NL>" 来代替。
  • 输入和输出话语中的所有换行符都应替换为 "<NL>" 。
  • 输入提示中的所有话语应由 "<NL>" 分隔。

下面是从对话构建输入的示例。

prompt = [
    {
        "speaker": "ユーザー",
        "text": "日本のおすすめの観光地を教えてください。"
    },
    {
        "speaker": "システム",
        "text": "どの地域の観光地が知りたいですか?"
    },
    {
        "speaker": "ユーザー",
        "text": "渋谷の観光地を教えてください。"
    }
]
prompt = [
    f"{uttr['speaker']}: {uttr['text']}"
    for uttr in prompt
]
prompt = "<NL>".join(prompt)
prompt = (
    prompt
    + "<NL>"
    + "システム: "
)
print(prompt)
# "ユーザー: 日本のおすすめの観光地を教えてください。<NL>システム: どの地域の観光地が知りたいですか?<NL>ユーザー: 渋谷の観光地を教えてください。<NL>システム: "

如何使用模型

import torch
from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained("rinna/japanese-gpt-neox-3.6b-instruction-sft", use_fast=False)
model = AutoModelForCausalLM.from_pretrained("rinna/japanese-gpt-neox-3.6b-instruction-sft")

if torch.cuda.is_available():
    model = model.to("cuda")

token_ids = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt")

with torch.no_grad():
    output_ids = model.generate(
        token_ids.to(model.device),
        do_sample=True,
        max_new_tokens=128,
        temperature=0.7,
        pad_token_id=tokenizer.pad_token_id,
        bos_token_id=tokenizer.bos_token_id,
        eos_token_id=tokenizer.eos_token_id
    )

output = tokenizer.decode(output_ids.tolist()[0][token_ids.size(1):])
output = output.replace("<NL>", "\n")
print(output)
"""分かりました。いくつかのおすすめを紹介します。
1. ハチ公像です。ハチ公像は、日本の観光スポットの1つとして人気があります。
2. スクランブル交差点です。多くの人々が行き交う大きな交差点で、観光客に人気のスポットです。
3. 109です。109は、ショッピングやエンターテイメント施設です。
4. 道玄坂です。道玄坂は、日本の商業地区である坂道です。</s>"""

分词

模型使用基于 sentencepiece 的分词器。

  • 分词器的词汇表大小为32,000。
  • 它使用sentencepiece的字节回退功能将未知的文本片段分解为UTF-8字节片段,避免产生 <UNK> 标记。
  • sentencepiece的 --add_dummy_prefix 选项已关闭,以便不会自动添加前导空格。
      print(tokenizer.tokenize("吾輩は猫である"))
      # ['吾', '輩', 'は', '猫', 'である']
      # instead of ['▁', '吾', '輩', 'は', '猫', 'である'] as in rinna/japanese-gpt-1b
    
  • sentencepiece的 --remove_extra_whitespaces 选项已关闭,以保留前导、尾随和重复的空格。
      print(tokenizer.tokenize("  吾輩は  猫である   "))
      # ['▁', '▁', '吾', '輩', 'は', '▁', '▁', '猫', 'である', '▁', '▁', '▁']
      # instead of ['▁', '吾', '輩', 'は', '▁猫', 'である'] as in rinna/japanese-gpt-1b
    
  • 不要忘记设置 use_fast=False 以使上述功能正常工作。
      good_tokenizer = AutoTokenizer.from_pretrained("rinna/japanese-gpt-neox-3.6b", use_fast=False)
      bad_tokenizer = AutoTokenizer.from_pretrained("rinna/japanese-gpt-neox-3.6b")
    
      print(good_tokenizer.decode(good_tokenizer.encode("გამარჯობა  吾輩は  猫である   ")))
      # 'გამარჯობა  吾輩は  猫である   </s>'
      print(bad_tokenizer.decode(bad_tokenizer.encode("გამარჯობა  吾輩は  猫である   ")))
      # 'გამარ[UNK]ობა 吾輩は 猫である </s>'
    

许可证

The MIT license