英文

严格复制 https://huggingface.co/tiiuae/falcon-40b ,但使用GPTQ进行量化(在wikitext-2上,4位,groupsize=128)。

预计与 https://github.com/huggingface/text-generation-inference 一起使用

model=huggingface/falcon-40b-gptq
num_shard=2
volume=$PWD/data # share a volume with the Docker container to avoid downloading weights every run

docker run --gpus all --shm-size 1g -p 8080:80 -v $volume:/data ghcr.io/huggingface/text-generation-inference:0.8 --model-id $model --num-shard $num_shard --quantize gptq

有关完整配置和在docker之外使用的用法,请参考 https://github.com/huggingface/text-generation-inference