模型:
KoboldAI/GPT-J-6B-Skein
该模型专为创造性故事生成而设计。它可以理解自由形式文本和以“> You”开头的交互式小说风格文本,例如:
You become aware of her breathing -- the slight expansion of her ribs, the soft exhalation -- natural, and yet somehow studied. "Ah -- by the way," she says, in a way that utterly fails to be casual, "have you seen the artist out there? -- My artist, that is." "No," you respond, uneasy. You open your mouth and close it again. > You ask about the experience of waking up
需要更多信息
该模型不应用于故意创建对人不友好或疏远的环境。
GPT-J的核心功能是接收一串文本并预测下一个标记。尽管语言模型在其他任务中被广泛使用,但对于这项工作仍存在许多未知。在提示GPT-J时,重要的是要记住,统计上最可能的下一个标记通常不是产生最“准确”文本的标记.不要依赖GPT-J产生准确的输出。GPT-J是在数据集Pile上进行训练的,该数据集已知包含亵渎、淫秽和其他伤害性语言。根据使用情况,GPT-J可能会生成不被接受的文本。有关Pile中偏见的更详细分析,请参阅Pile论文的第5和6节。与所有语言模型一样,很难事先预测GPT-J对特定提示的响应,可能会出现冒犯性内容而毫无预警。我们建议在发布之前由人类对结果进行筛选或过滤,以便对不期望的内容进行审核,并提高结果的质量。
有关更多信息,请参阅 GPT-J 6B model card 。
用户(直接和下游)应了解模型的风险、偏见和局限性。需要进一步的信息以获取更多建议。
数据主要由 KoboldAI/GPT-Neo-2.7B-Horni-LN (模型)的轻小说数据集和各种交互式小说组成。数据集使用[主题:<逗号分隔的流派列表>]进行标记,这意味着如果在上下文中放置了类似的文本,模型将尝试生成指定样式的文本。有关数据集的更多详细信息,请参阅 this document 。
使用Python包ftfy对数据进行预处理,以尽可能消除非ASCII标点符号字符和可能的编码错误。数据集中的交互式小说还经历了去重处理,因为交互式小说日志中经常包含重复文本,例如多次访问同一游戏区域的文本。使用spaCy进行语法分析,将旧文本冒险游戏中常见的动作重构为更完整的句子。还进行了一些手动的剔除工作,例如“感谢您的游戏”消息和标题消息。
训练总共耗时约14小时,平均速度为每秒5265个标记。
需要更多信息
需要更多信息
需要更多信息
需要更多信息
可以使用 Machine Learning Impact calculator 中提出的 Lacoste et al. (2019) 估算碳排放量。
需要更多信息
需要更多信息
需要更多信息
https://github.com/kingoflolz/mesh-transformer-jax
BibTeX:
@misc{mesh-transformer-jax, author = {Wang, Ben}, title = {{Mesh-Transformer-JAX: Model-Parallel Implementation of Transformer Language Model with JAX}}, howpublished = {\url{https://github.com/kingoflolz/mesh-transformer-jax}}, year = 2021, month = May }
需要更多信息
需要更多信息
KoboldAI与Ezi Ozoani和Hugging Face团队合作
需要更多信息
使用下面的代码开始使用该模型。
点击展开from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("KoboldAI/GPT-J-6B-Skein") model = AutoModelForCausalLM.from_pretrained("KoboldAI/GPT-J-6B-Skein")