模型:

TheBloke/landmark-attention-llama7b-fp16

英文

Chat & support: my new Discord server

Want to contribute? TheBloke's Patreon page

Landmark Attention 7B fp16

这些文件是合并的fp16 PyTorch格式模型文件,适用于 Landmark Attention 7B

它们是将提供的增量与基础LLaMa 7B合并生成的结果。

关于这个模型的更多信息,请参阅他们在Github上的页面: https://github.com/epfml/landmark-attention

可用的代码库

Discord

如需进一步支持以及有关这些模型和人工智能的讨论,请加入我们的社区:

TheBloke AI's Discord server

非常感谢以及如何贡献

非常感谢 chirper.ai 团队!

我已经有很多人询问是否可以做出贡献。我享受提供模型并帮助他人,并且非常希望能够花更多时间在这方面,并扩展到新的项目,如微调/训练。

如果您有能力和意愿做出贡献,我将非常感激并希望继续提供更多模型,并开始进行新的人工智能项目。

捐款者将在任何人工智能/LLM/模型问题和请求上得到优先支持,可以进入一个私人Discord聊天室,并享受其他福利。

感谢我的慷慨赞助者和捐赠者!

原始模型卡片:Landmark Attention 7B

LLaMA-7B + Landmark Attention

该存储库托管了LLaMA 7B在RedPajama上通过地标注意力训练15000步和原始模型之间的权重差异。请访问 Github repository 获取有关如何恢复完整权重以及如何使用它们的进一步说明。

Github存储库: https://github.com/epfml/landmark-attention