介绍
最近的一项研究重点是了解推理步长对思维链 (CoT) 实现的影响。
思维链
自从引入了链式思维提示以来,它已被证明是关于大型语言模型(LLM)的关键创新之一。这可以通过某种被一些人称为链式X现象的兴起来说明。
因此,链式X的有效性提供了一个机会,来深入探究CoT的基本原理。
最近的一项研究考量了链式思维提示的基本原理和解剖结构。
改善思维链性能的关键发现
考虑到上面的图像,推理步骤链的长度增加,解决问题的准确性也随之提高。
考虑上图所示,通过图中方法使思维条长度增加,并尽可能在不丢失信息的情况下压缩思维条。
以下是来自研究的五种常规提示策略……
再次参考下面的图片,展示了在GSM8K数据集上不同大小模型的准确度。有趣的是,存在一个在准确度方面最优步数的数量。
最终,手动引导的CoT需要一些手工设计的示例,每个示例包含一个问题和一个推理链,这些推理链导向一个答案,以此来提高语言模型的推理性能。
Auto-CoT通过自动构建示例来消除了手动设计示例的需要,它通过对测试问题进行聚类来选择多样化的示例,并利用语言模型自身的零次推理能力生成推理链。
这项工作显著地有助于理解和优化大型语言模型(LLM)中的CoT,特别是关于复杂推理任务。
在像GPT-3、GPT-3.5和GPT-4这样的大型语言模型上进行的研究揭示了推理链长度和模型性能之间的显著相关性。
令人惊讶的是,长的推理链即使包含了误导性信息,也能提升性能,这强调了在复杂自然语言处理(NLP)任务中进行有效解决问题时,链的长度比事实的准确性更为重要。