章节 01
【导读】重复采样投票的数学边界:两次调用预测LLM推理准确率曲线
本文介绍一项关于大型语言模型(LLM)重复推理投票机制的数学理论研究,核心发现是仅通过两次独立调用即可预测任意多数投票预算下的准确率边界,为测试时计算优化提供了新的理论框架。
正文
本文介绍了一项关于大语言模型重复推理投票机制的数学理论研究,揭示了仅通过两次独立调用即可预测多数投票准确率边界的方法,为测试时计算优化提供了新的理论框架。
章节 01
本文介绍一项关于大型语言模型(LLM)重复推理投票机制的数学理论研究,核心发现是仅通过两次独立调用即可预测任意多数投票预算下的准确率边界,为测试时计算优化提供了新的理论框架。
章节 02
当前LLM推理面临两难:单次调用可能不稳定,多次采样投票提升准确率但增加计算成本。实践中缺乏理论指导判断采样停止时机与预期收益,导致资源过度投入或采样不足。此外,重复采样收益不均,部分样本存在内在不确定性,单纯增加调用无法解决系统性错误。
章节 03
研究建立简洁数学框架,发现重复推理的二元正确性可由两个统计量刻画:
章节 04
研究通过凸优化对偶理论处理无限维矩问题,证明任意有限投票预算的最优边界可由仅含三个原子的离散分布达到。此发现带来三点意义:
章节 05
研究关注三票多数投票(最小有用预算),发现其存在简洁闭式解,区间宽度严格限定在1/8以内。同时提出“认证改进准则”:当两阶矩满足特定条件时,可证明三票投票必然优于单票。这为实践者提供决策工具:通过两次调用判断增加投票是否值得及收益范围。
章节 06
在QNLI和QQP数据集上验证,实际观测的三票、五票准确率落在理论预测区间内。调整采样温度或使用随机模型混合时,“较弱”模型配置有时可通过投票超越“较强”单次调用配置,为模型集成策略提供新思路。
章节 07
对工程实践者的意义: