Chat & support: my new Discord server
Want to contribute? TheBloke's Patreon page
# GPT4 Alpaca LoRA 30B - GPTQ 4bit 128g这是一个4位GPTQ版本的 Chansung GPT4 Alpaca 30B LoRA model 。
它是通过将上述存储库中提供的LoRA与原始Llama 30B模型合并而创建的,生成未量化的模型 GPT4-Alpaca-LoRA-30B-HF
然后使用 GPTQ-for-LLaMa 将其量化为4位,组大小为128g。
VRAM使用量取决于返回的令牌数。在返回的大约1000个令牌以下,它将使用