模型:
TheBloke/landmark-attention-llama7b-fp16
Chat & support: my new Discord server
Want to contribute? TheBloke's Patreon page
这些文件是合并的fp16 PyTorch格式模型文件,适用于 Landmark Attention 7B 。
它们是将提供的增量与基础LLaMa 7B合并生成的结果。
关于这个模型的更多信息,请参阅他们在Github上的页面: https://github.com/epfml/landmark-attention
如需进一步支持以及有关这些模型和人工智能的讨论,请加入我们的社区:
非常感谢 chirper.ai 团队!
我已经有很多人询问是否可以做出贡献。我享受提供模型并帮助他人,并且非常希望能够花更多时间在这方面,并扩展到新的项目,如微调/训练。
如果您有能力和意愿做出贡献,我将非常感激并希望继续提供更多模型,并开始进行新的人工智能项目。
捐款者将在任何人工智能/LLM/模型问题和请求上得到优先支持,可以进入一个私人Discord聊天室,并享受其他福利。
感谢我的慷慨赞助者和捐赠者!
该存储库托管了LLaMA 7B在RedPajama上通过地标注意力训练15000步和原始模型之间的权重差异。请访问 Github repository 获取有关如何恢复完整权重以及如何使用它们的进一步说明。
Github存储库: https://github.com/epfml/landmark-attention