章节 01
导读:探索NLI知识蒸馏的新路径
本文针对自然语言推理(NLI)模型的"黑盒"问题与浅层推理局限,研究如何将人类解释与LLM思维链的推理能力通过知识蒸馏迁移到高效编码器模型中,对比两者效果并探索混合策略,为可解释NLI提供新方向。
正文
对比人类解释与LLM思维链在NLI任务中的效果,研究如何将推理能力蒸馏到编码器模型中
章节 01
本文针对自然语言推理(NLI)模型的"黑盒"问题与浅层推理局限,研究如何将人类解释与LLM思维链的推理能力通过知识蒸馏迁移到高效编码器模型中,对比两者效果并探索混合策略,为可解释NLI提供新方向。
章节 02
NLI任务需判断句子间逻辑关系,但现有预训练模型(如BERT、DeBERTa)决策缺乏可解释性,常依赖浅层词汇启发式(如相同词汇即判断蕴含),在复杂推理样本中表现"伪理解"。
章节 03
基于DeBERTa架构设计四种训练设置:1.基线模型(仅用前提-假设对);2.人类解释蒸馏(多任务学习生成人类解释);3.LLM-CoT蒸馏(用GPT-4生成的思维链训练);4.混合蒸馏(结合两者)。
章节 04
实验显示:1.推理监督显著提升复杂样本性能;2.LLM思维链在系统化、规模化上优于人类解释;3.蒸馏策略(如多任务学习)影响效果。
章节 05
推理能力可通过蒸馏迁移到小模型,LLM思维链可作为人类解释的补充,为资源受限场景下的可解释NLI提供可行路径。
章节 06
1.重新审视人类标注与合成数据的关系;2.需更严格评估指标区分真实推理与表面模仿;3.推理能力迁移为可信AI提供支持。
章节 07
局限:仅在英语SNLI验证,LLM思维链质量依赖提示;未来:探索先进蒸馏技术、扩展到其他推理任务、优化评估指标。