模型:

TheBloke/alpaca-lora-65B-HF

英文

Chat & support: my new Discord server

Want to contribute? TheBloke's Patreon page

量化的alpaca-lora-65B GGMLs

合并的、未量化的HF仓库 changsung's alpaca-lora-65B

Discord

想要进一步了解这些模型和人工智能的支持以及讨论,请加入我们的:

TheBloke AI's Discord server

感谢和如何贡献

感谢 chirper.ai 团队!

很多人问我是否可以贡献。我喜欢提供模型和帮助他人,非常希望能够花更多时间这么做,同时还能扩展到新的项目,如微调/训练等。

如果您有能力和愿意贡献,我将非常感激,并且这将帮助我继续提供更多模型,并开始进行新的人工智能项目。

捐赠者将在任何与AI/LLM/模型相关的问题和需求上获得优先支持,还可以访问私人Discord房间,以及其他福利。

Patreon特别感谢 :Aemon Algiz,Dmitriy Samsonov,Nathan LeClaire,Trenton Dambrowitz,Mano Prime,David Flickinger,vamX,Nikolai Manek,senxiiz,Khalefa Al-Ahmad,Illia Dulskyi,Jonathan Leane,Talal Aujan,V. Lukas,Joseph William Delisle,Pyrater,Oscar Rangel,Lone Striker,Luke Pendergrass,Eugene Pentland,Sebastain Graf,Johann-Peter Hartman。

感谢所有慷慨的赞助者和捐赠者!

未提供原始模型卡片

changsung's original repository 没有提供模型卡片。

根据名称推测,这是使用原始GPT 3.5 Alpaca数据集进行微调的结果。目前不清楚是否使用了原始的斯坦福数据或 cleaned tloen/alpaca-lora variant