许多基于大型语言模型(LLM)的知识图谱构建(KGC)框架侧重于局部视角,仅从单个句子或文档中提取知识三元组,缺少一个融合过程来将知识整合到一个全局知识图谱中。
本文介绍了Graphusion,这是一个从零文本开始的零样本KGC框架。它包含三个步骤:第一步,我们使用主题建模提取一系列种子实体,以指导最终的知识图谱包含最相关的实体;第二步,我们使用LLM进行候选三元组提取;第三步,我们设计了新颖的融合模块,该模块提供了提取知识的全局视图,包括实体合并、冲突解决和新三元组发现。
下图展示了零样本LLM、局部图-RAG、GraphRAG和Graphusion框架在将LLM应用于KGC时的差异。局部图-RAG主要从孤立的角度关注知识提取,而GraphRAG能够从全局视角总结信息。然而,我们的方法Graphusion则包含了一个知识融合步骤,能够直接将局部知识整合到全局上下文中。
Graphusion:零样本知识图谱构建
介绍了用于构建科学知识图谱的Graphusion框架,如下图所示:
这种方法解决了零样本知识图谱构建(KGC)中的三个关键挑战:
i) 问题定义
ii) 步骤1:种子实体生成
iii) 步骤2:候选三元组提取
Given a context {context} and a query entity {query}, do the following:
1. Extract the query entity and in-domain entities from the context,
which should be fine-grained...
2. Determine the relations between the query entity and the extracted
entities, in a triplet format:(<head entity>, <relation>, <tail entity
>)...
{Relation Definition}
3. Please note some relations are strictly directional...
4. You can also extract triplets from the extracted entities, and the
query entity may not be necessary in the triplets.
iv) 知识图谱融合
LLM-KG = {(h, r, t) ∈ ZS-KG | h = q 或 t = q}
融合步骤侧重于三个部分:
使用以下融合提示:
Please fuse two sub-knowledge graphs about the entity: {entity}.
Graph 1: {LLM-KG}
Graph 2: {E-G}
Rules for Fusing the Graphs:
1. Union the entities and edges.
2. If two entities are similar, or refer to the same entity, merge
them into one entity, keeping the one that is meaningful or specific.
3. Only one relation is allowed between two entities. If a conflict exists,
read the ### Background to help you keep the correct relation...
4. Once step 3 is done, consider every possible entity pair not covered in
step 2. For example, take an entity from Graph 1, and match it with a
entity from Graph 2. Then, please refer to ### Background to summarize
new triplets.
### Background:
{background}
{Relation Definition}
实验
i) 知识图谱构建
a) 数据集
选取2017年至2023年ACL会议的程序论文,共包括4605篇有效论文。
b) 实现
在四种不同的大型语言模型(LLM)设置上实现Graphusion:LLaMa3-70b、GPT-3.5、GPT-4和GPT-4o。
c) 基线
与局部图模型(GPT-4o Local)进行比较,该模型等同于没有融合步骤(步骤3)的Graphusion模型。
d) 结果
下表显示了评分和专家的一致性分数。
在所有测试的方法中,基于GPT-4o的Graphusion在实体和关系评分方面均取得了最高性能。
值得注意的是,当省略融合步骤时,性能从2.37显著下降到2.08,这表明融合步骤在提升Graphusion中关系质量方面起着至关重要的作用。
e) 案例分析:实体提取
我们检查了由GraphRAG和Graphusion提取的一组随机实体,结果基于GPT-4o作为主干模型,如下图所示
GraphRAG有时会提取过于笼统的术语,如“benchmark(基准)”和“methodology(方法)”,这些术语在语料库中频繁出现。在后续实验中
f) 案例分析:融合
下图展示了基于GPT-4o模型的Graphusion的案例分析:正确的部分用绿色高亮显示,已解决和合并的部分用橙色高亮显示,而不太准确的部分则用紫色高亮显示。
我们的融合步骤合并了相似的实体(如“neural MT”和“neural machine translation”),并解决了关系冲突(如“Prerequisite_of”和“Hyponym_of”)。此外,它还能够推断出输入中不存在的新颖三元组。
然而,在实体识别方面,它可能会输出不太准确的三元组,例如粒度较差的实体(如“annotated data”、“model generated summary”)和识别出非常远的关系(如将“word embedding”归类为计算机科学的一部分)。
ii) 链接预测
LLM方法优于传统的监督学习基线,这表明LLM在知识图谱构建方面,尤其是关系预测方面,具有实现更高质量的潜力。
TutorQA:科学知识图谱问答基准
设计不同难度级别的问题,并将它们分为6个任务,下图总结了这些任务并给出了示例数据:
i) 任务
任务包括:
ii) 结果
下表中的分析比较了基于Graphusion和两个基线(包括GPT-4o零样本(zs)和带有RAG的GPT-4o(RAG))的结果。
我们的方法结合Graphusion构建的知识图谱在任务1到任务6中相较于基线方法均表现出显著提升。
iii) 案例研究:任务2和任务3(实体数量)
在下图中,我们评估了GPT-4o零样本(zs)和我们的Graphusion框架在任务2和任务3的回应中创建的实体平均数量。这两个任务都要求模型给出一系列合理的实体。
结果显示,在没有知识图谱检索信息的增强下,GPT-4o在生成的回应中倾向于提及更多的实体(任务2:11.04个,任务3:11.54个),这些实体可能是不相关的或过于宽泛的。
iv) 案例研究:任务6(答案中扩展的相关实体)
下表展示了TutorQA任务6的案例研究:LLaMA、GPT-4o以及我们结合Graphusion构建的知识图谱的流水线方法(部分)。
借助Graphusion构建的知识图谱,模型提供了一个更加全面的解决方案,它不仅详细阐述了初始查询的实体,还引入了从恢复的图(如依赖解析和事件抽取)中获取的额外实体(以淡紫色突出显示)。
结论
我们提出了Graphusion,该方法利用大型语言模型(LLMs)从自由文本中构建科学知识图谱。通过三个关键步骤:种子实体生成、候选三元组提取和知识图谱融合,Graphusion从全局视角构建知识图谱,解决了传统知识图谱构建(KGC)方法的局限性。