英文

Chat & support: my new Discord server

Want to contribute? TheBloke's Patreon page

Wizard-Vicuna-7B-Uncensored HF

这是 Eric Hartford's 'uncensored' training of Wizard-Vicuna 7B 的 float16 HF 存储库。

这是将 Eric 的 float32 存储库转换为 float16 后更容易存储的结果。

可用的存储库

Discord

如需进一步支持和讨论这些模型和人工智能,请加入我们:

TheBloke AI's Discord server

致谢及如何贡献

感谢 chirper.ai 团队!

我接到很多人询问他们是否可以贡献。我喜欢提供模型并帮助人们,非常希望能够在此方面投入更多时间,以及扩展到新项目,如微调/训练。

如果您有能力和意愿进行贡献,我将非常感激。这将帮助我继续提供更多模型,并开始进行新的人工智能项目。

捐赠者将优先获得在任何与AI/LLM/模型相关的问题和请求上的支持,可以访问私人 Discord 房间,以及其他一些福利。

Patreon 特别感谢:Aemon Algiz, Dmitriy Samsonov, Nathan LeClaire, Trenton Dambrowitz, Mano Prime, David Flickinger, vamX, Nikolai Manek, senxiiz, Khalefa Al-Ahmad, Illia Dulskyi, Jonathan Leane, Talal Aujan, V. Lukas, Joseph William Delisle, Pyrater, Oscar Rangel, Lone Striker, Luke Pendergrass, Eugene Pentland, Sebastain Graf, Johann-Peter Hartman.

感谢所有慷慨支持和捐助的赞助者!

原始模型卡片

这是对 LLaMA-7B 进行训练的 wizard-vicuna-13b 模型,使用数据集的子集 - 删除了包含对齐/道德化的回应。目的是训练一个没有内置对齐的 WizardLM 模型,这样可以单独添加对齐(任何形式)比如使用 RLHF LoRA。

向开源人工智能/机器学习社区和所有帮助过我的人致敬。

注意:

一个未经审查的模型没有任何防护措施。

您对模型做任何事情负有责任,就像您对刀具、枪支、打火机或汽车等任何危险物品负责一样。

发布此模型生成的任何内容与自行发布相同。

您对所发布的内容负责,不能将模型的责任归咎于模型,就像不能将刀具、枪支、打火机或汽车的责任归咎于使用它们的您一样。