英文

模型卡片

摘要

本模型是使用 H2O LLM Studio 进行训练的。

用法

要在支持GPU的机器上使用transformers库来使用该模型,首先确保已安装transformers、accelerate和torch库。

pip install transformers==4.29.2
pip install bitsandbytes==0.39.0
pip install accelerate==0.19.0
pip install torch==2.0.0
pip install einops==0.6.1
import torch
from transformers import pipeline, BitsAndBytesConfig, AutoTokenizer

model_kwargs = {}

quantization_config = None
# optional quantization
quantization_config = BitsAndBytesConfig(
    load_in_8bit=True,
    llm_int8_threshold=6.0,
)
model_kwargs["quantization_config"] = quantization_config

tokenizer = AutoTokenizer.from_pretrained(
    "h2oai/h2ogpt-gm-oasst1-en-2048-falcon-40b-v1",
    use_fast=False,
    padding_side="left",
    trust_remote_code=True,
)

generate_text = pipeline(
    model="h2oai/h2ogpt-gm-oasst1-en-2048-falcon-40b-v1",
    tokenizer=tokenizer,
    torch_dtype=torch.float16,
    trust_remote_code=True,
    use_fast=False,
    device_map={"": "cuda:0"},
    model_kwargs=model_kwargs,
)

res = generate_text(
    "Why is drinking water so healthy?",
    min_new_tokens=2,
    max_new_tokens=1024,
    do_sample=False,
    num_beams=1,
    temperature=float(0.3),
    repetition_penalty=float(1.2),
    renormalize_logits=True
)
print(res[0]["generated_text"])

您可以在预处理步骤后打印示例提示,以查看它是如何输入到分词器中的:

print(generate_text.preprocess("Why is drinking water so healthy?")["prompt_text"])
<|prompt|>Why is drinking water so healthy?<|endoftext|><|answer|>

或者,您可以下载h2oai_pipeline.py文件,将其存储在笔记本旁边,并根据加载的模型和分词器构造流水线:

import torch
from h2oai_pipeline import H2OTextGenerationPipeline
from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig

quantization_config = None
# optional quantization
quantization_config = BitsAndBytesConfig(
    load_in_8bit=True,
    llm_int8_threshold=6.0,
)

tokenizer = AutoTokenizer.from_pretrained(
    "h2oai/h2ogpt-gm-oasst1-en-2048-falcon-40b-v1",
    use_fast=False,
    padding_side="left",
    trust_remote_code=True,
)
model = AutoModelForCausalLM.from_pretrained(
    "h2oai/h2ogpt-gm-oasst1-en-2048-falcon-40b-v1",
    trust_remote_code=True,
    torch_dtype=torch.float16,
    device_map={"": "cuda:0"},
    quantization_config=quantization_config
).eval()
generate_text = H2OTextGenerationPipeline(model=model, tokenizer=tokenizer)

res = generate_text(
    "Why is drinking water so healthy?",
    min_new_tokens=2,
    max_new_tokens=1024,
    do_sample=False,
    num_beams=1,
    temperature=float(0.3),
    repetition_penalty=float(1.2),
    renormalize_logits=True
)
print(res[0]["generated_text"])

您还可以自己从加载的模型和分词器构建流水线,并考虑预处理步骤:

from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig

# Important: The prompt needs to be in the same format the model was trained with.
# You can find an example prompt in the experiment logs.
prompt = "<|prompt|>How are you?<|endoftext|><|answer|>"

quantization_config = None
# optional quantization
quantization_config = BitsAndBytesConfig(
    load_in_8bit=True,
    llm_int8_threshold=6.0,
)

tokenizer = AutoTokenizer.from_pretrained(
    "h2oai/h2ogpt-gm-oasst1-en-2048-falcon-40b-v1",
    use_fast=False,
    padding_side="left",
    trust_remote_code=True,
)
model = AutoModelForCausalLM.from_pretrained(
    "h2oai/h2ogpt-gm-oasst1-en-2048-falcon-40b-v1",
    trust_remote_code=True,
    torch_dtype=torch.float16,
    device_map={"": "cuda:0"},
    quantization_config=quantization_config
).eval()

inputs = tokenizer(prompt, return_tensors="pt", add_special_tokens=False).to("cuda")

# generate configuration can be modified to your needs
tokens = model.generate(
    **inputs,
    min_new_tokens=2,
    max_new_tokens=1024,
    do_sample=False,
    num_beams=1,
    temperature=float(0.3),
    repetition_penalty=float(1.2),
    renormalize_logits=True
)[0]

tokens = tokens[inputs["input_ids"].shape[1]:]
answer = tokenizer.decode(tokens, skip_special_tokens=True)
print(answer)

模型架构

RWForCausalLM(
  (transformer): RWModel(
    (word_embeddings): Embedding(65024, 8192)
    (h): ModuleList(
      (0-59): 60 x DecoderLayer(
        (ln_attn): LayerNorm((8192,), eps=1e-05, elementwise_affine=True)
        (ln_mlp): LayerNorm((8192,), eps=1e-05, elementwise_affine=True)
        (self_attention): Attention(
          (maybe_rotary): RotaryEmbedding()
          (query_key_value): Linear(in_features=8192, out_features=9216, bias=False)
          (dense): Linear(in_features=8192, out_features=8192, bias=False)
          (attention_dropout): Dropout(p=0.0, inplace=False)
        )
        (mlp): MLP(
          (dense_h_to_4h): Linear(in_features=8192, out_features=32768, bias=False)
          (act): GELU(approximate='none')
          (dense_4h_to_h): Linear(in_features=32768, out_features=8192, bias=False)
        )
      )
    )
    (ln_f): LayerNorm((8192,), eps=1e-05, elementwise_affine=True)
  )
  (lm_head): Linear(in_features=8192, out_features=65024, bias=False)
)

模型配置

该模型是使用H2O LLM Studio进行训练的,并使用cfg.yaml中的配置。访问 H2O LLM Studio 了解如何训练自己的大型语言模型。

免责声明

在使用本存储库中提供的大型语言模型之前,请仔细阅读本免责声明。使用该模型表示您同意以下条款和条件。

  • 偏见和冒犯性:大型语言模型是根据各种互联网文本数据进行训练的,这些数据可能包含偏见、种族主义、冒犯性或其他不适当的内容。通过使用该模型,您承认并接受生成的内容可能会展示偏见或产生冒犯或不适当的内容。本存储库的开发者不支持、不赞成或不宣传任何此类内容或观点。
  • 限制:大型语言模型是一种基于人工智能的工具,而非人类。它可能会产生错误、荒唐或不相关的回答。用户有责任对生成的内容进行批判性评估,并根据自己的判断进行使用。
  • 自担风险:使用该大型语言模型的用户必须对其使用工具可能导致的任何后果承担全部责任。本存储库的开发人员和贡献者不对因使用或滥用提供的模型而导致的任何损害、损失或伤害承担责任。
  • 道德考虑:鼓励用户负责任和道德地使用大型语言模型。使用该模型时,您同意不将其用于促进仇恨言论、歧视、骚扰或任何形式的非法或有害活动。
  • 报告问题:如果您遇到大型语言模型生成的带有偏见、冒犯或其他不适当内容,请通过提供的渠道向存储库维护者报告。您的反馈将有助于改进模型并减轻潜在问题。
  • 免责声明的变更:本存储库的开发人员保留随时修改或更新本免责声明的权利,无需事先通知。用户有责任定期查看免责声明以了解任何变更。

通过使用本存储库提供的大型语言模型,表示您同意接受并遵守本免责声明中概述的条款和条件。如果您不同意本免责声明的任何部分,应避免使用该模型和由模型生成的任何内容。