模型:
TheBloke/Vicuna-13B-CoT-GPTQ
Chat & support: my new Discord server
Want to contribute? TheBloke's Patreon page
这些文件是用于 Kevin Pro's Vicuna 13B CoT 的GPTQ 4位模型文件。
这是使用 GPTQ-for-LLaMa 进行4位量化的结果。
请确保您正在使用text-generation-webui的最新版本
首先确保已安装 AutoGPTQ :
pip install auto-gptq
然后尝试以下示例代码:
from transformers import AutoTokenizer, pipeline, logging from auto_gptq import AutoGPTQForCausalLM, BaseQuantizeConfig import argparse model_name_or_path = "TheBloke/Vicuna-13B-CoT-GPTQ" model_basename = "vicuna-13b-cot-GPTQ-4bit-128g.no-act.order" use_triton = False tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, use_fast=True) model = AutoGPTQForCausalLM.from_quantized(model_name_or_path, model_basename=model_basename, use_safetensors=True, trust_remote_code=True, device="cuda:0", use_triton=use_triton, quantize_config=None) print("\n\n*** Generate:") input_ids = tokenizer(prompt_template, return_tensors='pt').input_ids.cuda() output = model.generate(inputs=input_ids, temperature=0.7, max_new_tokens=512) print(tokenizer.decode(output[0])) # Inference can also be done using transformers' pipeline # Prevent printing spurious transformers error when using pipeline with AutoGPTQ logging.set_verbosity(logging.CRITICAL) prompt = "Tell me about AI" prompt_template=f'''### Human: {prompt} ### Assistant:''' print("*** Pipeline:") pipe = pipeline( "text-generation", model=model, tokenizer=tokenizer, max_new_tokens=512, temperature=0.7, top_p=0.95, repetition_penalty=1.15 ) print(pipe(prompt_template)[0]['generated_text'])
vicuna-13b-cot-GPTQ-4bit-128g.no-act.order.safetensors
这将与AutoGPTQ和CUDA版本的GPTQ-for-LLaMa一起使用。有报道称最近的GPTQ-for-LLaMa Triton模式存在问题。如果有问题,请改用AutoGPTQ。
它是使用 group_size 为128创建的,以提高推理准确性,但不使用--act-order(desc_act)以增加兼容性并提高推理速度。
如需进一步支持和讨论这些模型和AI,请加入以下群組:
感谢 chirper.ai 团队!
我有很多人询问是否可以做出贡献。我喜欢提供模型并帮助人们,并且很愿意能够更多地花时间做这些事情,以及扩展到像良好调优/训练等新项目。
如果您有能力和愿意做出贡献,我将非常感激,并将帮助我继续提供更多模型,并开始进行新的AI项目。
捐赠者将在任何AI/LLM/模型问题和请求上享有优先支持,可以访问私人Discord房间,以及其他好处。
特别感谢: CarbonQuill的Luke, Aemon Algiz, Dmitriy Samsonov.
Patreon特别提到: Ajan Kanaga, Kalila, Derek Yates, Sean Connelly, Luke, Nathan LeClaire, Trenton Dambrowitz, Mano Prime, David Flickinger, vamX, Nikolai Manek, senxiiz, Khalefa Al-Ahmad, Illia Dulskyi, trip7s trip, Jonathan Leane, Talal Aujan, Artur Olbinski, Cory Kujawski, Joseph William Delisle, Pyrater, Oscar Rangel, Lone Striker, Luke Pendergrass, Eugene Pentland, Johann-Peter Hartmann.
感谢所有慷慨的赞助者和捐赠者!
SFT以增强Vicuna的CoT能力
如果您认为该模型有帮助,请点击“喜欢”来支持我们。我们也欢迎您对使用体验和遇到的任何问题的反馈。
另一个7B版本: https://huggingface.co/kevinpro/Vicuna-7B-CoT
[需要更多信息]
[需要更多信息]
[需要更多信息]
[需要更多信息]
用户(直接使用和下游使用者)应了解模型的风险、偏见和限制。更多信息需要提供进一步的建议。
使用下面的代码开始使用模型。
[需要更多信息]
[需要更多信息]
[需要更多信息]
培训超参数[需要更多信息]
[需要更多信息]
因素[需要更多信息]
度量[需要更多信息]
[需要更多信息]
总结[需要更多信息]
可以使用 Machine Learning Impact calculator 对碳排放进行估算。
[需要更多信息]
[需要更多信息]
硬件[需要更多信息]
软件[需要更多信息]
BibTeX:
[需要更多信息]
APA:
[需要更多信息]
[需要更多信息]
[需要更多信息]
[需要更多信息]
[需要更多信息]