模型:
TheBloke/WizardLM-7B-uncensored-GPTQ
Chat & support: my new Discord server
Want to contribute? TheBloke's Patreon page
这些文件是用于 Eric Hartford's 'uncensored' version of WizardLM 的 GPTQ 4 位模型文件。
这是使用 GPTQ-for-LLaMa 进行 4 位量化的结果。
Eric 使用 WizardLM 方法对 a dataset edited to remove all the "I'm sorry.." type ChatGPT responses 进行了全新的 7B 训练。
正常打开文本生成 WebUI。
兼容文件 - WizardLM-7B-uncensored-GPTQ-4bit-128g.compat.no-act-order.safetensors
在“main”分支 - 默认分支 - 中,您将找到“WizardLM-7B-uncensored-GPTQ-4bit-128g.compat.no-act-order.safetensors”
这将适用于所有版本的 GPTQ-for-LLaMa。它具有最大的兼容性。
它是在没有“--act-order”参数的情况下创建的。与其他文件相比,它可能具有稍低的推理质量,但保证适用于所有版本的 GPTQ-for-LLaMa 和文本生成 WebUI。
python llama.py models/ehartford_WizardLM-7B-Uncensored c4 --wbits 4 --true-sequential --groupsize 128 --save_safetensors /workspace/eric-gptq/WizardLM-7B-uncensored-GPTQ-4bit-128g.compat.no-act-order.safetensors
如需进一步支持和讨论这些模型和AI,加入我们:
感谢 chirper.ai 团队!
我收到很多人询问是否可以贡献。我喜欢提供模型并帮助人们,非常感激您的贡献,将使我能够花更多时间提供更多模型,并开始新的Fine Tuning/Training等AI项目。
如果您有能力和意愿贡献,将非常感激,并且将帮助我继续提供更多模型,并开始新的AI项目。
捐赠者将优先获得关于AI/LLM/模型问题和请求的支持,可以访问私人Discord房间,以及其他福利。
特别感谢我的慷慨捐赠者和赞助者!
这是WizardLM训练的子数据集 - 删除了包含对齐/道德化的回答。目的是训练一个没有内置对齐的WizardLM,可以单独添加任何类型的对齐,例如使用RLHF LoRA。
向开源AI/ML社区和所有帮助过我的人致敬,包括Rohan、TheBloke和Caseus。
Evol-InstructEvol-Instruct 是一种使用LLM而不是人类自动批量生产各种难度水平和技能范围的开放域指令的新方法,以提高LLM的性能。