模型:

TheBloke/Wizard-Vicuna-13B-Uncensored-SuperHOT-8K-GPTQ

英文

Chat & support: my new Discord server

Want to contribute? TheBloke's Patreon page

Eric Hartford的Wizard Vicuna 13B未经审查的GPTQ

这些文件是合并了 Eric Hartford's Wizard Vicuna 13B Uncensored Kaio Ken's SuperHOT 8K 的GPTQ 4bit模型文件。

这是一个实验性的新GPTQ,可以提供高达8K的上下文大小。

经过最新版本 text-generation-webui 的测试,已经证实增加的上下文可以在 ExLlama 上正常工作。

它还通过使用AutoGPTQ从Python代码进行了测试, trust_remote_code=True。

代码的贡献者:

  • 通过增加上下文长度的原始概念和代码: kaiokendev
  • 包含此功能的更新的Llama建模代码,通过trust_remote_code自动实现: emozilla .

请仔细阅读下面的内容以了解如何使用它。

目前还没有提供GGML版本,因为llama.cpp还不支持SuperHOT。正在调查此问题,希望很快能得到解决。

可用的存储库

如何轻松下载并在text-generation-webui中使用此模型

请确保您正在使用text-generation-webui的最新版本

  • 点击 Model 选项卡。
  • 在 Download custom model or LoRA 下,输入TheBloke/Wizard-Vicuna-13B-Uncensored-SuperHOT-8K-GPTQ 。
  • 点击 Download .
  • 模型开始下载。下载完成后,会显示“完成”
  • 取消选中 Autoload the model
  • 在左上角,点击 Model 旁边的刷新图标。
  • 在 Model 下拉菜单中,选择刚刚下载的模型: Wizard-Vicuna-13B-Uncensored-SuperHOT-8K-GPTQ
  • 要使用增加的上下文,请将 Loader 设置为 ExLlama ,将 max_seq_len 设置为8192或4096,并将 compress_pos_emb 设置为 4 (8192 上下文) 或 2 (4096 上下文)。
  • 现在点击 Save Settings ,然后点击 Reload
  • 模型将自动加载,现在已准备就绪!
  • 准备后,点击 Text Generation 选项卡,输入提示开始使用!
  • 如何使用此GPTQ模型进行Python代码与AutoGPTQ

    首先确保已安装AutoGPTQ和Einops:

    pip3 install einops auto-gptq
    

    然后运行以下代码。请注意,为了使其工作, config.json 中的序列长度已硬编码为8192。

    如果想尝试使用4096来减少VRAM的使用,请手动编辑config.json将max_position_embeddings设置为所需值。

    from transformers import AutoTokenizer, pipeline, logging
    from auto_gptq import AutoGPTQForCausalLM, BaseQuantizeConfig
    import argparse
    
    model_name_or_path = "TheBloke/Wizard-Vicuna-13B-Uncensored-SuperHOT-8K-GPTQ"
    model_basename = "wizard-vicuna-13b-uncensored-superhot-8k-GPTQ-4bit-128g.no-act.order"
    
    use_triton = False
    
    tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, use_fast=True)
    
    model = AutoGPTQForCausalLM.from_quantized(model_name_or_path,
            model_basename=model_basename,
            use_safetensors=True,
            trust_remote_code=True,
            device_map='auto',
            use_triton=use_triton,
            quantize_config=None)
    
    model.seqlen = 8192
    
    # Note: check the prompt template is correct for this model.
    prompt = "Tell me about AI"
    prompt_template=f'''USER: {prompt}
    ASSISTANT:'''
    
    print("\n\n*** Generate:")
    
    input_ids = tokenizer(prompt_template, return_tensors='pt').input_ids.cuda()
    output = model.generate(inputs=input_ids, temperature=0.7, max_new_tokens=512)
    print(tokenizer.decode(output[0]))
    
    # Inference can also be done using transformers' pipeline
    
    # Prevent printing spurious transformers error when using pipeline with AutoGPTQ
    logging.set_verbosity(logging.CRITICAL)
    
    print("*** Pipeline:")
    pipe = pipeline(
        "text-generation",
        model=model,
        tokenizer=tokenizer,
        max_new_tokens=512,
        temperature=0.7,
        top_p=0.95,
        repetition_penalty=1.15
    )
    
    print(pipe(prompt_template)[0]['generated_text'])
    

    使用其他UI: 修补程序

    存储库中提供了llama_rope_scaled_monkey_patch.py,由@kaiokendev编写。

    理论上可以将其添加到任何Python UI或自定义代码中,以实现与 trust_remote_code=True 相同的结果。我没有测试过这一点,而且使用 trust_remote_code=True 应该优于该方法,但我为了完整性和有趣性而包括它。

    提供的文件

    wizard-vicuna-13b-uncensored-superhot-8k-GPTQ-4bit-128g.no-act.order.safetensors

    它可以与AutoGPTQ、ExLlama和GPTQ-for-LLaMa的CUDA版本一起使用。有报告称最新的GPTQ-for-LLaMa的Triton模式存在问题。如果出现问题,请改用AutoGPTQ。

    它是使用group_size 128创建的,以增加推理准确性,但未使用--act-order (desc_act),以增加兼容性和提高推理速度。

    • wizard-vicuna-13b-uncensored-superhot-8k-GPTQ-4bit-128g.no-act.order.safetensors
      • 适用于在增加上下文(4096或8192)的情况下与ExLlama一起使用
      • 适用于Python代码中的AutoGPTQ使用,包括增加的上下文,如果设置trust_remote_code=True的话。
      • 应该适用于CUDA模式下的GPTQ-for-LLaMa,但未知是否支持增加的上下文-待确认。可能在GPTQ-for-LLaMa的Triton模式下出现问题。
      • 适用于text-generation-webui,包括一键安装程序。
      • 参数: Groupsize = 128. Act Order / desc_act = False.

    Discord

    如需进一步支持和讨论这些模型和AI方面的问题,请加入我们:

    TheBloke AI's Discord server

    感谢和如何贡献

    感谢 chirper.ai 团队!

    我收到了很多人询问是否可以提供帮助。我喜欢提供模型和帮助他人,并希望能够花更多的时间来提供更多的模型,并开始进行新的项目,如精细调整/训练。

    如果您有能力和意愿进行贡献,我将非常感激,并将帮助我继续提供更多的模型,并开始进行新的AI项目。

    捐赠者将在AI/LLM/模型问题和请求方面获得优先支持,还可以访问私人Discord房间,以及其他福利。

    特别感谢:Luke from CarbonQuill、Aemon Algiz、Dmitriy Samsonov.

    Patreon特别感谢:zynix、ya boyyy、Trenton Dambrowitz、Imad Khwaja、Alps Aficionado、chris gileta、John Detwiler、Willem Michiel、RoA、Mano Prime、Rainer Wilmers、Fred von Graf、Matthew Berman、Ghost、Nathan LeClaire、Iucharbius、Ai Maven、Illia Dulskyi、Joseph William Delisle、Space Cruiser、Lone Striker、Karl Bernard、Eugene Pentland、Greatston Gnanesh、Jonathan Leane、Randy H、Pierre Kircher、Willian Hasse、Stephen Murray、Alex、terasurfer、Edmond Seymore、Oscar Rangel、Luke Pendergrass、Asp the Wyvern、Junyu Yang、David Flickinger、Luke、Spiking Neurons AB、subjectnull、Pyrater、Nikolai Manek、senxiiz、Ajan Kanaga、Johann-Peter Hartmann、Artur Olbinski、Kevin Schuppel、Derek Yates、Kalila、K、Talal Aujan、Khalefa Al-Ahmad、Gabriel Puliatti、John Villwock、WelcomeToTheClub、Daniel P. Andersen、Preetika Verma、Deep Realms、Fen Risland、trip7s trip、webtim、Sean Connelly、Michael Levine、Chris McCloskey、biorpg、vamX、Viktor Bowallius、Cory Kujawski。

    感谢所有慷慨的赞助者和捐赠者!

    原始模型卡片:Kaio Ken的SuperHOT 8K

    SuperHOT Prototype 2 w/ 8K Context

    这是SuperHOT的第二个原型,这次是30B,具有8K的上下文,没有RLHF,使用了 the github blog 中描述的相同技术。测试表明,该模型确实利用了8K的扩展上下文。

    您需要使用上面提到的monkeypatch或者,如果已经使用了monkeypatch,则将缩放因子更改为0.25,最大序列长度更改为8192

    寻找合并和量化的模型? 训练细节

    我使用以下配置训练了LoRA:

    • 1200个样本(超过2048序列长度的约400个样本)
    • 学习速率为3e-4
    • 3个epochs
    • 导出的模块为:
      • q_proj
      • k_proj
      • v_proj
      • o_proj
      • 无偏置
    • 等级 = 4
    • Alpha = 8
    • 无丢失
    • 权重衰减为0.1
    • AdamW beta1为0.9,beta2为0.99,epsilon为1e-5
    • 在4位基础模型上进行训练

    原始模型卡片:Eric Hartford的Wizard Vicuna 13B未经审查

    这是使用数据集的子集进行训练的 wizard-vicuna-13b - 删除了包含对齐/道德化的回答。目的是训练一个不带有内置对齐的WizardLM,以便可以单独添加对齐(任何类型的对齐)比如使用RLHF LoRA。

    感谢开放源代码的AI/ML社区和帮助我的每个人。

    注意:

    未经审查的模型没有防护栏。

    您对使用该模型的任何操作负责,就像您对使用刀、枪、打火机或汽车等任何危险工具一样。

    发布模型生成内容与自己的发布没有区别。

    您对所发布内容负责,您不能将责任归咎于模型,就像您不能将责任归咎于刀、枪、打火机或汽车一样。