章节 01
CodeComp:结构感知KV缓存压缩革新智能编程代理
CodeComp通过Joern提取的代码属性图(CPG)先验,将静态程序分析融入LLM推理,实现无需训练的KV缓存压缩。在错误定位和代码生成任务中,以同等内存预算超越纯注意力压缩基线,保持与全上下文推理相当的补丁生成质量,为智能编程代理突破内存瓶颈提供新方案。
正文
CodeComp通过Joern提取的代码属性图先验,将静态程序分析融入LLM推理,实现无需训练的KV缓存压缩。在错误定位和代码生成任务中,以同等内存预算超越纯注意力压缩基线,保持与全上下文推理相当的补丁生成质量。
章节 01
CodeComp通过Joern提取的代码属性图(CPG)先验,将静态程序分析融入LLM推理,实现无需训练的KV缓存压缩。在错误定位和代码生成任务中,以同等内存预算超越纯注意力压缩基线,保持与全上下文推理相当的补丁生成质量,为智能编程代理突破内存瓶颈提供新方案。
章节 02
现代智能编程代理处理长上下文时,KV缓存随序列长度膨胀,成为内存瓶颈。现有KV缓存压缩基于注意力信号丢弃Token,但代码结构高度非局部(如函数调用、分支条件、赋值语句等关键结构Token)易被忽略,导致长代码理解任务性能急剧下降。
章节 03
CodeComp引入CPG(整合AST、CFG、PDG的结构化表示),通过Joern提取CPG计算Token结构重要性评分,结合注意力信号与结构评分的混合保留策略,动态分配跨层压缩预算。其训练无关设计零部署成本、模型无关、即时生效,可无缝集成SGLang框架。
章节 04
在错误定位任务中,压缩率超80%时纯注意力基线准确率接近随机,CodeComp恢复大部分全上下文准确率;代码生成任务中,补丁质量与未压缩全上下文相当。所有实验在同等内存预算下进行,凸显结构感知策略的优势。
章节 05
CodeComp证明领域知识融入可带来质的飞跃,可推广至法律、医疗、科学文献等领域。未来将探索轻量级程序分析、扩展到自然语言长文档、开发自适应压缩策略。
章节 06
CodeComp选择成熟的Joern工具提取CPG,支持多语言且低开销,提供丰富配置选项。当前局限包括依赖Joern的语言范围限制,CPG分析存在一定计算开销,极端延迟场景需优化。