模型:

TheBloke/GPlatty-30B-SuperHOT-8K-GPTQ

英文

Chat & support: my new Discord server

Want to contribute? TheBloke's Patreon page

Lilloukas' GPlatty 30B GPTQ

这些文件是GPTQ 4位模型文件,用于合并 Lilloukas' GPlatty 30B Kaio Ken's SuperHOT 8K

它是通过使用 GPTQ-for-LLaMa 进行4位量化的结果。

这是一个实验性的新GPTQ,最多可提供8K的上下文大小

扩展的上下文已经通过 ExLlama 和最新版本的 text-generation-webui 进行了测试。

它还通过使用AutoGPTQ中的Python代码进行了测试,并且 trust_remote_code=True .

代码证书:

  • 增加上下文长度的原始概念和代码: kaiokendev
  • 包含此功能的更新的Llama建模代码,通过 trust_remote_code=True 自动包含: emozilla .

请仔细阅读下面的内容以了解如何使用它。

注意:在30B模型上使用完整的8K上下文将超过24GB VRAM。

目前尚未提供GGML版本,因为llama.cpp尚不支持SuperHOT。正在进行调查,并有望很快推出。

可用的存储库

如何在text-generation-webui中轻松下载和使用此模型

请确保您正在使用text-generation-webui的最新版本

  • 点击 Model 选项卡 .
  • 在 Download custom model or LoRA 下,输入 TheBloke/GPlatty-30B-SuperHOT-8K-GPTQ .
  • 点击 Download .
  • 模型开始下载。下载完成后将显示“已完成”
  • 取消选中 Autoload the model
  • 在左上角,单击 Model 旁边的刷新图标。
  • 在 Model 下拉菜单中,选择刚刚下载的模型: GPlatty-30B-SuperHOT-8K-GPTQ
  • 要使用增加的上下文,请将 Loader 设置为 ExLlama ,将 max_seq_len 设置为 8192或4096,并将 compress_pos_emb 设置为 4 以获取8192上下文,或设置为 2 以获取4096上下文。
  • 现在单击 Save Settings ,然后点击 Reload
  • 模型将自动加载,现在已经准备就绪!
  • 准备好后,点击 Text Generation 选项卡并输入提示开始!
  • 如何从Python代码中使用此GPTQ模型与AutoGPTQ

    首先确保已安装AutoGPTQ和Einops:

    pip3 install einops auto-gptq
    

    然后运行以下代码。请注意,为了使其正常工作, config.json 的序列长度已硬编码为8192。

    如果要尝试4096以减少VRAM使用量,请手动编辑 config.json ,将 max_position_embeddings 设置为所需的值。

    from transformers import AutoTokenizer, pipeline, logging
    from auto_gptq import AutoGPTQForCausalLM, BaseQuantizeConfig
    import argparse
    
    model_name_or_path = "TheBloke/GPlatty-30B-SuperHOT-8K-GPTQ"
    model_basename = "gplatty-30b-superhot-8k-GPTQ-4bit--1g.act.order"
    
    use_triton = False
    
    tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, use_fast=True)
    
    model = AutoGPTQForCausalLM.from_quantized(model_name_or_path,
            model_basename=model_basename,
            use_safetensors=True,
            trust_remote_code=True,
            device_map='auto',
            use_triton=use_triton,
            quantize_config=None)
    
    model.seqlen = 8192
    
    # Note: check the prompt template is correct for this model.
    prompt = "Tell me about AI"
    prompt_template=f'''USER: {prompt}
    ASSISTANT:'''
    
    print("\n\n*** Generate:")
    
    input_ids = tokenizer(prompt_template, return_tensors='pt').input_ids.cuda()
    output = model.generate(inputs=input_ids, temperature=0.7, max_new_tokens=512)
    print(tokenizer.decode(output[0]))
    
    # Inference can also be done using transformers' pipeline
    
    # Prevent printing spurious transformers error when using pipeline with AutoGPTQ
    logging.set_verbosity(logging.CRITICAL)
    
    print("*** Pipeline:")
    pipe = pipeline(
        "text-generation",
        model=model,
        tokenizer=tokenizer,
        max_new_tokens=512,
        temperature=0.7,
        top_p=0.95,
        repetition_penalty=1.15
    )
    
    print(pipe(prompt_template)[0]['generated_text'])
    

    使用其他UI: 代码和库的修补

    存储库中提供了 llama_rope_scaled_monkey_patch.py ,由@kaiokendev编写。

    理论上,它可以添加到任何Python UI或自定义代码中,以实现与 trust_remote_code=True 相同的结果。我没有测试过,并且它应该被 trust_remote_code=True 取代,但出于完整性和兴趣的考虑,我还是包含了它。

    提供的文件

    gplatty-30b-superhot-8k-GPTQ-4bit--1g.act.order.safetensors

    这将适用于AutoGPTQ、ExLlama和GPTQ-for-LLaMa的CUDA版本。有报告称最近的GPTQ-for-LLaMa Triton模式存在问题。如果有问题,请改用AutoGPTQ。

    由于没有group_size,它的VRAM要求较低,并且使用了--act-order (desc_act)以尽可能提高推理准确性。

    • gplatty-30b-superhot-8k-GPTQ-4bit--1g.act.order.safetensors
      • 适用于具有增加上下文(4096或8192)的ExLlama使用
      • 适用于Python代码中的AutoGPTQ,包括具有增加上下文的情况,如果 trust_remote_code=True 设置为。
      • 应该适用于CUDA模式的GPTQ-for-LLaMa,但未知是否支持增加上下文-待定。GPTQ-for-LLaMa Triton模式可能存在问题。
      • 适用于text-generation-webui,包括一键安装程序。
      • 参数:Groupsize = -1. Act Order / desc_act = True.

    Discord

    如需进一步支持以及有关这些模型和AI的讨论,请加入我们:

    TheBloke AI's Discord server

    感谢和如何贡献

    感谢 chirper.ai 团队!

    我有很多人问我他们是否可以做出贡献。我很乐意提供模型和帮助人们,并且希望能够在此基础上花更多时间,以及扩展到新的项目,如微调/训练。

    如果您能够并且愿意进行贡献,我将非常感激,并将帮助我继续提供更多的模型,并开始新的AI项目。

    捐赠者将优先获得关于AI/LLM/模型问题和请求的支持,可以访问私人Discord聊天室,以及其他好处。

    特别感谢 : 来自CarbonQuill的Luke,Aemon Algiz,Dmitriy Samsonov。

    Patreon特别提及 : zynix ,ya boyyy,Trenton Dambrowitz,Imad Khwaja,Alps Aficionado,chris gileta,John Detwiler,Willem Michiel,RoA,Mano Prime,Rainer Wilmers,Fred von Graf,Matthew Berman,Ghost ,Nathan LeClaire,Iucharbius ,Ai Maven,Illia Dulskyi,Joseph William Delisle,Space Cruiser,Lone Striker,Karl Bernard,Eugene Pentland,Greatston Gnanesh,Jonathan Leane,Randy H,Pierre Kircher,Willian Hasse,Stephen Murray,Alex ,terasurfer ,Edmond Seymore,Oscar Rangel,Luke Pendergrass,Asp the Wyvern,Junyu Yang,David Flickinger,Luke,Spiking Neurons AB,subjectnull,Pyrater,Nikolai Manek,senxiiz,Ajan Kanaga,Johann-Peter Hartmann,Artur Olbinski,Kevin Schuppel,Derek Yates,Kalila,K,Talal Aujan,Khalefa Al-Ahmad,Gabriel Puliatti,John Villwock,WelcomeToTheClub,Daniel P. Andersen,Preetika Verma,Deep Realms,Fen Risland,trip7s trip,webtim,Sean Connelly,Michael Levine,Chris McCloskey,biorpg,vamX,Viktor Bowallius,Cory Kujawski。

    感谢所有慷慨的赞助者和捐赠者!

    原始模型卡片:Kaio Ken的SuperHOT 8K

    SuperHOT Prototype 2 w/ 8K Context

    这是SuperHOT的第二个原型,这次是30B的8K上下文,不使用RLHF,在 the github blog 中描述的相同技术。测试显示,模型确实利用了8K的扩展上下文。

    您将需要 使用monkeypatch ,或者,如果您已经在使用monkeypatch,请将缩放因子更改为0.25,最大序列长度更改为8192

    寻找合并和量化的模型? 训练细节

    我使用以下配置进行了LoRA训练:

    • 1200个样本(超过2048个序列长度400个样本)
    • 学习率为3e-4
    • 3个时期
    • 导出的模块为:
      • q_proj
      • k_proj
      • v_proj
      • o_proj
      • 无偏差
    • 级别 = 4
    • Alpha = 8
    • 无dropout
    • 权重衰减为0.1
    • AdamW的beta1为0.9,beta2为0.99,epsilon为1e-5
    • 在4位基本模型上进行训练

    原始模型卡片:Lilloukas的GPlatty 30B

    信息

    GPlatty-30B是 lilloukas/Platypus-30B chansung/gpt4-alpaca-lora-30b 的合并版本

    Metric Value
    MMLU (5-shot) 63.6
    ARC (25-shot) 66.0
    HellaSwag (10-shot) 84.8
    TruthfulQA (0-shot) 53.8
    Avg. 67.0

    我们使用的是最先进的 Language Model Evaluation Harness 运行上述基准测试的模型。

    模型详情

    • 训练者 : Cole Hunter和Ariel Lee所训练的Platypus-30B;由chansung所训练的gpt4-alpaca-lora-30b。
    • 模型类型: GPlatty-30B 是基于LLaMA变压器架构的自回归语言模型。
    • 语言 : 英语
    • 基本权重的许可证 : 基本LLaMA模型的权重的许可证是Meta的 non-commercial bespoke license .
    Hyperparameter Value
    n parameters n_\text{parameters} n parameters ​ 33B
    d model d_\text{model} d model ​ 6656
    n layers n_\text{layers} n layers ​ 60
    n heads n_\text{heads} n heads ​ 52

    复现评估结果

    安装LM Evaluation Harness:

    git clone https://github.com/EleutherAI/lm-evaluation-harness
    cd lm-evaluation-harness
    pip install -e .
    

    每个任务在一台A100 80GB GPU上进行评估。

    ARC:

    python main.py --model hf-causal-experimental --model_args pretrained=lilloukas/GPlatty-30B --tasks arc_challenge --batch_size 1 --no_cache --write_out --output_path results/Platypus-30B/arc_challenge_25shot.json --device cuda --num_fewshot 25
    

    HellaSwag:

    python main.py --model hf-causal-experimental --model_args pretrained=lilloukas/GPlatty-30B --tasks hellaswag --batch_size 1 --no_cache --write_out --output_path results/Platypus-30B/hellaswag_10shot.json --device cuda --num_fewshot 10
    

    MMLU:

    python main.py --model hf-causal-experimental --model_args pretrained=lilloukas/GPlatty-30B --tasks hendrycksTest-* --batch_size 1 --no_cache --write_out --output_path results/Platypus-30B/mmlu_5shot.json --device cuda --num_fewshot 5
    

    TruthfulQA:

    python main.py --model hf-causal-experimental --model_args pretrained=lilloukas/GPlatty-30B --tasks truthfulqa_mc --batch_size 1 --no_cache --write_out --output_path results/Platypus-30B/truthfulqa_0shot.json --device cuda
    

    限制和偏见

    基本LLaMA模型在各种数据上进行了训练,其中一些数据可能包含冒犯性、有害和有偏见的内容,可能导致有毒行为。请参阅LLaMA论文的5.1节。我们没有进行任何研究来确定在上述数据集上进行微调如何影响模型的行为和毒性。请不要将此模型的聊天响应视为对人类判断的替代品或真理的来源。请负责任地使用。

    引用

    @article{touvron2023llama,
      title={LLaMA: Open and Efficient Foundation Language Models},
      author={Touvron, Hugo and Lavril, Thibaut and Izacard, Gautier and Martinet, Xavier and Lachaux, Marie-Anne and Lacroix, Timoth{\'e}e and Rozi{\`e}re, Baptiste and Goyal, Naman and Hambro, Eric and Azhar, Faisal and Rodriguez, Aurelien and Joulin, Armand and Grave, Edouard and Lample, Guillaume},
      journal={arXiv preprint arXiv:2302.13971},
      year={2023}
    }
    @article{hu2021lora,
      title={LoRA: Low-Rank Adaptation of Large Language Models},
      author={Hu, Edward J. and Shen, Yelong and Wallis, Phillip and Allen-Zhu, Zeyuan and Li, Yuanzhi and Wang, Shean and Chen, Weizhu},
      journal={CoRR},
      year={2021}
    }