英文

FinMA-7B-full

FinMA-7B-full是一个综合的金融大型语言模型(LLM),作为PIXIU项目的一部分进行开发。它旨在理解复杂的金融语言和概念,并经过 fine-tuned 以遵循自然语言指令,在下游的金融任务中发挥更高的性能。具体而言,FinMA-7B-full 使用了 PIXIU 数据集的完整指令数据进行训练,涵盖了自然语言处理和预测任务,使其成为一个更全面的模型,能够处理更广泛的金融任务。

PIXIU 项目中的其他模型

除了FinMA-7B-full,PIXIU 项目还包括其他两个模型:FinMA-7B-NLP 和FinMA-30B。

  • FinMA-7B-NLP:该模型仅在 PIXIU 数据集的 NLP 任务上进行训练,专门用于情感分析、新闻标题分类、命名实体识别和问答等任务。

  • FinMA-30B:该模型是FinMA的一个更大版本,使用 LLaMA-30B 模型进行 fine-tuned。与 FinMA-7B-NLP 一样,它是使用 NLP 指令数据进行训练的。

使用方法

您可以使用 Hugging Face Transformers 库在您的 Python 项目中使用 FinMA-7B-full 模型。以下是一个加载模型的简单示例:

from transformers import LlamaTokenizer, LlamaForCausalLM

tokenizer = LlamaTokenizer.from_pretrained('ChanceFocus/finma-7b-full')
model = LlamaForCausalLM.from_pretrained('ChanceFocus/finma-7b-full', device_map='auto')

在这个示例中,使用 LlamaTokenizer 加载标记器,使用 LlamaForCausalLM 加载模型。device_map='auto' 参数用于自动选择是否使用 GPU(如果可用)。

托管推理 API

您还可以通过 Hugging Face 推理 API 使用该模型。这样您可以生成文本,而无需设置自己的推理环境。模型可按需加载到推理 API 上。

许可证

FinMA-7B-NLP 使用 MIT 许可证。有关更多详细信息,请参阅 MIT 文件。

关于

这个模型是 PIXIU 项目的一部分,它是一个开源的资源,提供了第一个金融大型语言模型(LLMs),指令调优数据和评估基准,以全面评估金融 LLMs的发展。目标是不断推动金融人工智能(AI)的开源发展。

有关更多信息,您可以访问 GitHub 上的项目 PIXIU

引用

如果您在您的工作中使用了 FinMA-7B-NLP,请引用 PIXIU 论文:

@misc{xie2023pixiu,
 title={PIXIU: A Large Language Model, Instruction Data and Evaluation Benchmark for Finance}, 
 author={Qianqian Xie and Weiguang Han and Xiao Zhang and Yanzhao Lai and Min Peng and Alejandro Lopez-Lira and Jimin Huang},
 year={2023},
 eprint={2306.05443},
 archivePrefix={arXiv},
 primaryClass={cs.CL}
}