模型:
stabilityai/stablelm-base-alpha-7b
StableLM-Base-Alpha 是一套3B和7B参数的基于解码器的语言模型,使用4096的序列长度在多样化的英文数据集上进行预训练,以突破现有开源语言模型的上下文窗口限制。
通过使用以下代码片段,开始使用 StableLM-Base-Alpha 生成文本:
from transformers import AutoModelForCausalLM, AutoTokenizer tokenizer = AutoTokenizer.from_pretrained("StabilityAI/stablelm-base-alpha-7b") model = AutoModelForCausalLM.from_pretrained("StabilityAI/stablelm-base-alpha-7b") model.half().cuda() inputs = tokenizer("What's your mood today?", return_tensors="pt").to("cuda") tokens = model.generate( **inputs, max_new_tokens=64, temperature=0.7, do_sample=True, ) print(tokenizer.decode(tokens[0], skip_special_tokens=True))
开发者: Stability AI
模型类型:StableLM-Base-Alpha 模型是基于NeoX Transformer架构的自回归语言模型。
语言:英语
类库: GPT-NeoX
许可证:基础模型检查点(StableLM-Base-Alpha)使用创作共用许可证( CC BY-SA-4.0 )授权。根据该许可证,您必须给予 credit 给Stability AI,并提供许可证的链接和 indicate if changes were made . 您可以以任何合理的方式实施这些要求,但不得以任何方式暗示Stability AI支持您或您的使用方式。
联系方式:有关模型的问题和评论,请发送电子邮件至 lm@stability.ai
Parameters | Hidden Size | Layers | Heads | Sequence Length |
---|---|---|---|---|
3B | 4096 | 16 | 32 | 4096 |
7B | 6144 | 16 | 48 | 4096 |
StableLM-Base-Alpha 在基于 The Pile 构建的新实验数据集上进行了预训练,该数据集规模是之前的3倍,约1.5T个标记。
模型在上述数据集上进行了混合精度(FP16)预训练,使用Adam进行优化,并使用NeoX tokenizer进行训练,词汇表大小为50,257个词。我们在项目的 GitHub repository 中详细说明了完整的超参数选择。
这些模型旨在供所有个体使用,作为应用特定微调的基础模型,没有对商业使用设置严格限制。
预训练数据集可能包含冒犯性或不适当的内容,即使应用了数据清洗过滤器,这些内容也可能在模型生成的文本中反映出来。我们建议用户在生产系统中使用这些模型时要谨慎行事。请不要将模型用于可能对个体或群体造成伤害或困扰的任何应用。
@software{gpt-neox-library, title = {{GPT-NeoX: Large Scale Autoregressive Language Modeling in PyTorch}}, author = {Andonian, Alex and Anthony, Quentin and Biderman, Stella and Black, Sid and Gali, Preetham and Gao, Leo and Hallahan, Eric and Levy-Kramer, Josh and Leahy, Connor and Nestler, Lucas and Parker, Kip and Pieler, Michael and Purohit, Shivanshu and Songz, Tri and Phil, Wang and Weinbach, Samuel}, url = {https://www.github.com/eleutherai/gpt-neox}, doi = {10.5281/zenodo.5879544}, month = {8}, year = {2021}, version = {0.0.1}, }