模型:
TheBloke/MPT-7B-Instruct-GGML
Chat & support: my new Discord server
Want to contribute? TheBloke's Patreon page
这是 MosaicML's MPT-7B-Instruct 的GGML格式量化的4位、5位和8位GGML模型。
该存储库是将其转换为GGML并量化的结果。
请注意,这些MPT GGML文件与llama.cpp不兼容。请参阅下面列出的已知与这些模型文件配合使用的工具列表。
Name | Quant method | Bits | Size | RAM required | Use case |
---|---|---|---|---|---|
mpt7b-instruct.ggmlv3.q4_0.bin | q4_0 | 4bit | 4.16GB | 6.2GB | 4-bit. |
mpt7b-instruct.ggmlv3.q4_1.bin | q4_0 | 4bit | 4.99GB | 7.2GB | 4-bit. Higher accuracy than q4_0 but not as high as q5_0. However has quicker inference than q5 models. |
mpt7b-instruct.ggmlv3.q5_0.bin | q5_0 | 5bit | 4.57GB | 6.8GB | 5-bit. Higher accuracy, higher resource usage and slower inference. |
mpt7b-instruct.ggmlv3.q5_1.bin | q5_1 | 5bit | 4.99GB | 7.2GB | 5-bit. Even higher accuracy, and higher resource usage and slower inference. |
mpt7b-instruct.ggmlv3.q8_0.bin | q8_0 | 8bit | 7.48GB | 9.7GB | 8-bit. Almost indistinguishable from float16. Huge resource use and slow. Not recommended for normal use. |
mpt7b-instruct.ggmlv3.fp16.bin | fp16 | 16bit | 13.30GB | 16GB | Full 16-bit. |
这些文件不与llama.cpp兼容。
目前,它们可以与以下项目一起使用:
随着其他选项的出现,我将尽力在此处更新它们(如果我漏掉了什么,请在社区选项卡中告诉我!)
如需进一步支持以及关于这些模型和AI的讨论,请加入我们:
感谢 chirper.ai 团队!
我已经有很多人问我是否可以贡献。我喜欢提供模型并帮助人们,很乐意能够花更多的时间来做这件事,以及扩大到像微调/训练等新项目。
如果您能够并且愿意做出贡献,我将非常感激,并且这将有助于我继续提供更多的模型,并开始进行新的AI项目的工作。
捐赠者将优先获得有关任何AI/LLM/模型问题和请求的支持,访问私人Discord聊天室以及其他好处。
Patreon特别致谢:Aemon Algiz, Dmitriy Samsonov, Nathan LeClaire, Trenton Dambrowitz, Mano Prime, David Flickinger, vamX, Nikolai Manek, senxiiz, Khalefa Al-Ahmad, Illia Dulskyi, Jonathan Leane, Talal Aujan, V. Lukas, Joseph William Delisle, Pyrater, Oscar Rangel, Lone Striker, Luke Pendergrass, Eugene Pentland, Sebastain Graf, Johann-Peter Hartman.
感谢我所有慷慨的赞助人和捐赠者!
MPT-7B-Instruct是一种用于短格式指令的模型。它是通过在 MPT-7B 的 dataset 上优化进行训练得到的,该模型源自 Databricks Dolly-15k 和 Anthropic Helpful and Harmless (HH-RLHF) 数据集。
该模型由 MosaicML 和MosaicML NLP团队进行微调,并遵循了修改后的仅解码器transformer架构。
May 5, 2023
CC-By-SA-3.0
Longboi24 :
什么是大刺猬?
MPT-7B-Instruct :
大刺猬(发音为“cool”)是澳大利亚的一种本土肉食性有袋动物,也被称为其他地区的袋鼠或墨西哥袋鼠
注意:该模型要求在from_pretrained方法中传递trust_remote_code=True。这是因为我们使用的是尚未包含在transformers包中的自定义模型架构。
它包括许多训练效率特性的选项,例如 FlashAttention (Dao et al. 2022) , ALiBi ,QK LayerNorm等。
import transformers model = transformers.AutoModelForCausalLM.from_pretrained( 'mosaicml/mpt-7b-instruct', trust_remote_code=True )
注意:该模型要求在from_pretrained方法中传递trust_remote_code=True。这是因为我们使用的是尚未包含在Hugging Face transformers包中的自定义MPT模型架构。MPT包括许多训练效率特性的选项,例如 FlashAttention , ALiBi , QK LayerNorm 等。
要使用优化后的FlashAttention的 triton implementation ,您可以使用attn_impl='triton'加载模型并将模型移动到bfloat16:
config = transformers.AutoConfig.from_pretrained( 'mosaicml/mpt-7b-instruct', trust_remote_code=True ) config.attn_config['attn_impl'] = 'triton' model = transformers.AutoModelForCausalLM.from_pretrained( 'mosaicml/mpt-7b-instruct', config=config, torch_dtype=torch.bfloat16, trust_remote_code=True ) model.to(device='cuda:0')
尽管该模型在序列长度为2048的情况下进行了训练,但ALiBi允许用户在微调和/或推理过程中增加最大序列长度。例如:
config = transformers.AutoConfig.from_pretrained( 'mosaicml/mpt-7b-instruct', trust_remote_code=True ) config.update({"max_seq_len": 4096}) model = transformers.AutoModelForCausalLM.from_pretrained( 'mosaicml/mpt-7b-instruct', config=config, trust_remote_code=True )
该模型使用了 EleutherAI/gpt-neox-20b 的tokenizer。
from transformers import AutoTokenizer tokenizer = AutoTokenizer.from_pretrained("EleutherAI/gpt-neox-20b")
该架构是标准解码器式transformer的改进。
该模型相对于标准transformer进行了以下修改:
Hyperparameter | Value |
---|---|
n_parameters | 6.7B |
n_layers | 32 |
n_heads | 32 |
d_model | 4096 |
vocab size | 50432 |
sequence length | 2048 |
有关预训练过程的更多细节,请参阅 MPT-7B 。
数据使用 EleutherAI/gpt-neox-20b 的tokenizer进行了标记化。
以下语言经过了从 EleutherAI's GPT-NeoX-20B 修改。
MPT-7B-Instruct可能会产生事实不准确的输出,不应依靠它产生准确的事实信息。MPT-7B-Instruct是根据各种公共数据集进行训练的,尽管对预训练数据进行了大量清理工作,但这个模型可能会生成淫秽、有偏见或其他冒犯性的输出。
该模型由Sam Havens和MosaicML NLP团队进行微调。
如果您对在MosaicML平台上 training 和 deploying 您自己的MPT或LLMs感兴趣,请 sign up here 。
本模型的许可证不构成法律建议。我们对使用该模型的第三方的行为不负责任。在商业用途之前,请咨询律师。
请使用以下格式引用该模型:
@online{MosaicML2023Introducing, author = {MosaicML NLP Team}, title = {Introducing MPT-7B: A New Standard for Open-Source, Commercially Usable LLMs}, year = {2023}, url = {www.mosaicml.com/blog/mpt-7b}, note = {Accessed: 2023-03-28}, % change this date urldate = {2023-03-28} % change this date }