模型:

TheBloke/gpt4-alpaca-lora-30B-GPTQ-4bit-128g

英文

Chat & support: my new Discord server

Want to contribute? TheBloke's Patreon page

# GPT4 Alpaca LoRA 30B - GPTQ 4bit 128g

这是一个4位GPTQ版本的 Chansung GPT4 Alpaca 30B LoRA model

它是通过将上述存储库中提供的LoRA与原始Llama 30B模型合并而创建的,生成未量化的模型 GPT4-Alpaca-LoRA-30B-HF

然后使用 GPTQ-for-LLaMa 将其量化为4位,组大小为128g。

VRAM使用量取决于返回的令牌数。在返回的大约1000个令牌以下,它将使用