Chat & support: my new Discord server
Want to contribute? TheBloke's Patreon page
这是合并了 chansung's gpt4-alpaca-lora-13b 的 HF 格式合并模型。
如需进一步支持以及对这些模型和人工智能的讨论,请加入我们:
感谢 chirper.ai 团队!
有很多人问我是否可以贡献。我喜欢提供模型和帮助人们,很愿意花更多时间进行提供,以及扩展到新项目,如精细调整/训练。
如果您能够并愿意贡献,我将非常感激,并将帮助我继续提供更多模型,开始新的人工智能项目。
捐赠者将获得所有关于AI/LLM/模型问题和请求的优先支持,可以进入私人 Discord 房间,以及其他福利。
Patreon 特别感谢:Aemon Algiz, Dmitriy Samsonov, Nathan LeClaire, Trenton Dambrowitz, Mano Prime, David Flickinger, vamX, Nikolai Manek, senxiiz, Khalefa Al-Ahmad, Illia Dulskyi, Jonathan Leane, Talal Aujan, V. Lukas, Joseph William Delisle, Pyrater, Oscar Rangel, Lone Striker, Luke Pendergrass, Eugene Pentland, Sebastain Graf, Johann-Peter Hartman.
感谢所有慷慨的赞助者和捐赠者!
此存储库附带了 LoRA 的检查点,以使 LLaMA 成为像聊天机器人一样的语言模型。此检查点是按照以下设置在 8xA100(40G) DGX 系统上进行指令跟踪微调过程的输出。
python finetune.py \ --base_model='decapoda-research/llama-30b-hf' \ --data_path='alpaca_data_gpt4.json' \ --num_epochs=10 \ --cutoff_len=512 \ --group_by_length \ --output_dir='./gpt4-alpaca-lora-30b' \ --lora_target_modules='[q_proj,k_proj,v_proj,o_proj]' \ --lora_r=16 \ --batch_size=... \ --micro_batch_size=...
您可以从 W&B 报告 here 中了解训练的情况。