模型:

TheBloke/gpt4-x-vicuna-13B-HF

英文

Chat & support: my new Discord server

Want to contribute? TheBloke's Patreon page

gpt4-x-vicuna-13B-HF

此存储库包含一个float16 HF格式的 NousResearch's gpt4-x-vicuna-13b 模型。

我上传了这个模型,因为NousResearch的基本存储库在一个存档中,所以无法在没有先解压缩的情况下使用它。而且该模型是以float32格式存在,需要更多的VRAM和RAM才能使用。

本存储库中的模型已经转换为float16格式,可以立即用于float16和8bit推理,或用作其他转换的基础。

可用的存储库

Discord

欢迎加入我们,进行进一步的支持和讨论这些模型和人工智能的话题:

TheBloke AI's Discord server

感谢以及如何贡献

感谢 chirper.ai 团队!

很多人问我是否可以做出贡献。我喜欢提供模型和帮助人们,并且非常乐意能有更多的时间来做这些,并且扩展到新项目,如微调/训练。

如果您有能力和意愿进行贡献,将非常感激,并将帮助我继续提供更多的模型,并开始进行新的人工智能项目的工作。

捐赠者将获得有关AI/LLM/模型问题和请求的优先支持,进入私人Discord房间,以及其他好处。

Patreon特别感谢:Aemon Algiz、Dmitriy Samsonov、Nathan LeClaire、Trenton Dambrowitz、Mano Prime、David Flickinger、vamX、Nikolai Manek、senxiiz、Khalefa Al-Ahmad、Illia Dulskyi、Jonathan Leane、Talal Aujan、V. Lukas、Joseph William Delisle、Pyrater、Oscar Rangel、Lone Striker、Luke Pendergrass、Eugene Pentland、Sebastain Graf、Johann-Peter Hartman。

感谢所有慷慨的赞助人和捐赠者!

原始模型卡片

基础模型使用 https://huggingface.co/eachadea/vicuna-13b-1.1

在Teknium的GPTeacher数据集、未发布的角色扮演v2数据集、GPT-4-LLM数据集和Nous Research Instruct数据集上进行了微调

大约180k个指令,全部来自GPT-4,全部清除了任何OpenAI的审查/“作为AI语言模型”等内容

基础模型仍然受到OpenAI的审查。不久将发布一个经过 https://huggingface.co/datasets/anon8231489123/ShareGPT_Vicuna_unfiltere 清理后的新版本

使用8个A100-80GB GPU在Alpaca深度加速训练代码的指导下进行了5个时期的训练

Nous Research Instruct数据集将很快发布

GPTeacher由 https://huggingface.co/teknium 提供,角色扮演v2由 https://github.com/nlpxucan 提供,Nous Research Instruct数据集由 https://huggingface.co/karan4d https://huggingface.co/huemin 提供,计算资源由我们的项目赞助商 https://redmond.ai/ 提供。