模型:
mayaeary/PPO_Pygway-6b-Mix-4bit-128g
GPTQ量化 https://huggingface.co/KoboldAI/PPO_Pygway-6b-Mix
使用此存储库: https://github.com/mayaeary/GPTQ-for-LLaMa/tree/gptj-v2
命令:
python3 gptj.py models/PPO_Pygway-6b-Mix c4 --wbits 4 --groupsize 128 --save_safetensors models/PPO_Pygway-6b-Mix-4bit-128g.safetensors