模型:

TheBloke/Chronos-Hermes-13B-SuperHOT-8K-GPTQ

英文

Chat & support: my new Discord server

Want to contribute? TheBloke's Patreon page

Austism的Chronos Hermes 13B GPTQ

这些文件是合并了 Austism's Chronos Hermes 13B Kaio Ken's SuperHOT 8K 的GPTQ 4位模型文件。

这是一种实验性的新GPTQ,可以提供高达8K的上下文大小

通过最新版本的 text-generation-webui ,已经通过 ExLlama 进行了测试。

还通过使用AutoGPTQ的Python代码进行了测试,且trust_remote_code=True。

代码致谢:

  • 原始概念和用于增加上下文长度的代码: kaiokendev
  • 包含这个功能的更新的Llama建模代码,通过trust_remote_code实现: emozilla

请仔细阅读下面的内容以了解如何使用它。

GGML版本尚未提供,因为在llama.cpp中尚不支持SuperHOT。正在进行调查,希望很快能提供支持。

可用的存储库

如何在text-generation-webui与ExLlama中轻松下载和使用此模型

请确保您使用的是text-generation-webui的最新版本

  • 点击“模型”选项卡。
  • 在“下载自定义模型或LoRA”下,输入“TheBloke/Chronos-Hermes-13B-SuperHOT-8K-GPTQ”。
  • 点击“下载”。
  • 模型将开始下载。下载完成后,将显示“完成”
  • 取消选中“自动加载模型”
  • 在左上角,点击“模型”旁边的刷新图标。
  • 在“模型”下拉菜单中,选择刚刚下载的模型:Chronos-Hermes-13B-SuperHOT-8K-GPTQ
  • 要使用增加的上下文,请将“加载器”设置为ExLlama,将max_seq_len设置为8192或4096,并将compress_pos_emb设置为8192上下文时的4,或者4096上下文时的2。
  • 现在点击“保存设置”,然后点击“重新加载”
  • 模型将自动加载,现在已经准备就绪!
  • 准备好后,点击“文本生成”选项卡并输入提示以开始!
  • 如何使用Python代码中的此GPTQ模型与AutoGPTQ

    首先确保已安装AutoGPTQ和Einops:

    pip3 install einops auto-gptq
    

    然后运行以下代码。请注意,为了使其正常工作,config.json已被硬编码为序列长度为8192。

    如果您想尝试4096以减少VRAM使用,请手动编辑config.json将max_position_embeddings设置为所需值。

    from transformers import AutoTokenizer, pipeline, logging
    from auto_gptq import AutoGPTQForCausalLM, BaseQuantizeConfig
    import argparse
    
    model_name_or_path = "TheBloke/Chronos-Hermes-13B-SuperHOT-8K-GPTQ"
    model_basename = "chronos-hermes-13b-superhot-8k-GPTQ-4bit-128g.no-act.order"
    
    use_triton = False
    
    tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, use_fast=True)
    
    model = AutoGPTQForCausalLM.from_quantized(model_name_or_path,
            model_basename=model_basename,
            use_safetensors=True,
            trust_remote_code=True,
            device_map='auto',
            use_triton=use_triton,
            quantize_config=None)
    
    model.seqlen = 8192
    
    # Note: check the prompt template is correct for this model.
    prompt = "Tell me about AI"
    prompt_template=f'''USER: {prompt}
    ASSISTANT:'''
    
    print("\n\n*** Generate:")
    
    input_ids = tokenizer(prompt_template, return_tensors='pt').input_ids.cuda()
    output = model.generate(inputs=input_ids, temperature=0.7, max_new_tokens=512)
    print(tokenizer.decode(output[0]))
    
    # Inference can also be done using transformers' pipeline
    
    # Prevent printing spurious transformers error when using pipeline with AutoGPTQ
    logging.set_verbosity(logging.CRITICAL)
    
    print("*** Pipeline:")
    pipe = pipeline(
        "text-generation",
        model=model,
        tokenizer=tokenizer,
        max_new_tokens=512,
        temperature=0.7,
        top_p=0.95,
        repetition_penalty=1.15
    )
    
    print(pipe(prompt_template)[0]['generated_text'])
    

    使用其他UI:Monkey Patch

    存储库中提供了llama_rope_scaled_monkey_patch.py ,由@kaiokendev编写。

    可以理论上将其添加到任何Python UI或自定义代码中,以启用与trust_remote_code=True相同的结果。我没有测试过,而且应该使用trust_remote_code=True取而代之,但为了完整性和有趣性,我包含它在内。

    提供的文件

    chronos-hermes-13b-superhot-8k-GPTQ-4bit-128g.no-act.order.safetensors

    这将适用于AutoGPTQ,ExLlama和GPTQ-for-LLaMa的CUDA版本。有报道称最近的GPTQ-for-LLaMa Triton模式存在问题。如果您遇到问题,请改用AutoGPTQ。

    它是使用group_size 128创建的,以增加推理准确性,但没有使用--act-order(desc_act),以提高兼容性和改善推理速度。

    • chronos-hermes-13b-superhot-8k-GPTQ-4bit-128g.no-act.order.safetensors
      • 适用于使用增加上下文的ExLlama(4096或8192)
      • 适用于Python代码中的AutoGPTQ,包括使用增加的上下文,如果设置了trust_remote_code=True。
      • 应该适用于以CUDA模式的GPTQ-for-LLaMa,但未知是否支持增加的上下文-待定。可能在GPTQ-for-LLaMa Triton模式下存在问题。
      • 与text-generation-webui一起使用,包括一键安装程序。
      • 参数:Groupsize = 128。Act Order / desc_act = False。

    Discord

    如需进一步支持以及有关这些模型和AI的讨论,请加入我们:

    TheBloke AI's Discord server

    感谢以及如何做出贡献。

    感谢 chirper.ai 团队!

    我收到了很多人询问他们是否可以做出贡献。我喜欢提供模型和帮助人们,并希望能够花更多时间提供帮助,并扩大到新的项目,如微调/训练。

    如果您有能力和意愿提供帮助,我将非常感激,并将帮助我继续提供更多模型,并着手进行新的AI项目。

    捐助者将优先获得有关AI / LLM /模型的所有问题和请求的支持,可以访问私人Discord房间,以及其他福利。

    特别感谢:Luke from CarbonQuill,Aemon Algiz,Dmitriy Samsonov。

    Patreon特别提到:zynix,ya boyyy,Trenton Dambrowitz,Imad Khwaja,Alps Aficionado,chris gileta,John Detwiler,Willem Michiel,RoA,Mano Prime,Rainer Wilmers,Fred von Graf,Matthew Berman,Ghost,Nathan LeClaire,Iucharbius,Ai Maven,Illia Dulskyi,Joseph William Delisle,Space Cruiser,Lone Striker,Karl Bernard,Eugene Pentland,Greatston Gnanesh,Jonathan Leane,Randy H,Pierre Kircher,Willian Hasse,Stephen Murray,Alex,terasurfer,Edmond Seymore,Oscar Rangel,Luke Pendergrass,Asp the Wyvern,Junyu Yang,David Flickinger,Luke,Spiking Neurons AB,subjectnull,Pyrater,Nikolai Manek,senxiiz,Ajan Kanaga,Johann-Peter Hartmann,Artur Olbinski,Kevin Schuppel,Derek Yates,Kalila,K,Talal Aujan,Khalefa Al-Ahmad,Gabriel Puliatti,John Villwock,WelcomeToTheClub,Daniel P.Andersen,Preetika Verma,Deep Realms,Fen Risland,trip7s trip,webtim,Sean Connelly,Michael Levine,Chris McCloskey,biorpg,vamX,Viktor Bowallius,Cory Kujawski。

    感谢我慷慨的捐助者和赞助者!

    原始模型卡片:Kaio Ken's SuperHOT 8K

    SuperHOT原型2 w / 8K上下文

    这是SuperHOT的第二个原型,这次是30B,具有8K的上下文且无RLHF,使用 the github blog 中描述的相同技术。测试表明,模型确实利用了8K的扩展上下文。

    您需要使用monkey patch或者如果您已经使用monkey patch,则将缩放因子更改为0.25,并将最大序列长度更改为8192

    寻找合并和量化模型? 培训细节

    我使用以下配置对LoRA进行了训练:

    • 1200个样本(对于2048序列长度,超过约400个样本)
    • 学习率为3e-4
    • 3个时期
    • 导出的模块为:
      • q_proj
      • k_proj
      • v_proj
      • o_proj
      • 无偏见
    • 等级= 4
    • Alpha = 8
    • 无辍学
    • 权重衰减为0.1
    • AdamW的beta1为0.9和beta2 0.99,epsilon为1e-5
    • 在4位基本模型上训练

    原始模型卡片:Austism的Chronos Hermes 13B

    chronos-13b + Nous-Hermes-13b )75/25合并

    这具有Chronos自然属性的长篇描述性输出。但具有更好的连贯性和更好地遵守指令的能力。因此,该模型具有出色的主动式故事创作能力,并遵循叙述。

    这个混合物包含了Chronos的写作风格和'flavour',但不太容易发生失控和胡言乱语的倾向。

    这个结果比我的 first chronos merge 成功得多。