章节 01
【导读】发现LLM内部共享逻辑子空间,提升推理能力新突破
本文核心研究发现:LLM内部存在跨自然语言与符号视角的共享逻辑子空间,通过典型相关分析(CCA)可提取该子空间,并设计无需训练的推理引导方法沿此子空间定向生成,在逻辑推理基准上实现最高11个百分点的准确率提升。该成果为理解LLM逻辑推理机制及神经符号融合提供新路径。
正文
通过典型相关分析发现LLM内部存在的跨视角共享逻辑子空间,并设计无需训练的方法沿此子空间引导推理,在逻辑推理基准上实现最高11个百分点的准确率提升。
章节 01
本文核心研究发现:LLM内部存在跨自然语言与符号视角的共享逻辑子空间,通过典型相关分析(CCA)可提取该子空间,并设计无需训练的推理引导方法沿此子空间定向生成,在逻辑推理基准上实现最高11个百分点的准确率提升。该成果为理解LLM逻辑推理机制及神经符号融合提供新路径。
章节 02
尽管LLM在文本生成等任务表现优异,但多步骤逻辑推理仍是短板。现有解决方案存在局限:
章节 03
LLM中存在低维共享逻辑子空间,编码自然语言与符号形式的逻辑推理能力,与表面形式无关。
章节 04
无需训练(无需微调参数/额外数据),可即插即用至任意预训练模型。
章节 05
LogiQA、ReClor、ProofWriter、FOLIO
跨领域(如数学证明→逻辑问答)仍有效,表明子空间捕获通用逻辑能力
仅单视角效果有限,结合双视角效果最佳。
章节 06
章节 07