模型:

NousResearch/GPT4-x-Vicuna-13b-4bit

英文

这是GPTQ 4Bit Groupsize 128 Pre-Quantized Model,要获取完整的模型(fp32版本),请访问 https://huggingface.co/NousResearch/gpt4-x-vicuna-13b

使用了 https://huggingface.co/eachadea/vicuna-13b-1.1 作为基础模型

在Teknium的GPTeacher数据集、Teknium未发布的角色扮演v2数据集、WizardLM Uncensored数据集、GPT-4-LLM Uncensored数据集和Nous Research Instruct数据集进行了微调

大约有180,000个指令,全部来自GPT-4,清除了任何OpenAI的审查/"作为一个AI语言模型"等信息

基础模型仍然受到OpenAI的审查。很快将发布一个新版本,其中包含了从 https://huggingface.co/datasets/anon8231489123/ShareGPT_Vicuna_unfiltere 清理的内容

在8个A100-80GB GPU上进行了5个时期的训练,遵循了Alpaca deepspeed训练代码

提示的格式是 Alpaca:

### Instruction:

### Response:

或者

### Instruction:

### Input:

### Response:

Nous Research Instruct 数据集即将发布

GPTeacher,Roleplay v2由 https://huggingface.co/teknium 提供

Wizard LM由 https://github.com/nlpxucan 提供

Nous Research Instruct 数据集由 https://huggingface.co/karan4d https://huggingface.co/huemin 提供

计算由我们的项目赞助商 https://redmond.ai/ 提供