章节 01
Radial Consensus Score:超越多数投票的几何共识方法,让LLM答案选择更可靠
本文介绍Radial Consensus Score(RCS)方法,通过计算答案嵌入向量的加权Fréchet均值作为语义中心,以候选答案到中心的径向距离排序,实现无需训练的最佳答案选择。该方法在7个基准测试上持续超越多数投票基线,为LLM答案选择提供更可靠的解决方案。
正文
本文介绍RCS方法,通过计算答案嵌入向量的加权Fréchet均值作为语义中心,以候选答案到中心的径向距离进行排序,实现无需训练的最佳答案选择,在7个基准测试上 consistently 超越多数投票基线。
章节 01
本文介绍Radial Consensus Score(RCS)方法,通过计算答案嵌入向量的加权Fréchet均值作为语义中心,以候选答案到中心的径向距离排序,实现无需训练的最佳答案选择。该方法在7个基准测试上持续超越多数投票基线,为LLM答案选择提供更可靠的解决方案。
章节 02
当向LLM多次采样候选答案时,传统多数投票仅关注字符串表面形式,忽略语义内容。例如,语义相同但措辞不同的答案会被视为不同,导致无法识别潜在共识;若正确答案是少数,多数投票可能选错高频错误答案。
章节 03
语义空间中相似文本聚集,RCS通过语义中心(加权Fréchet均值)识别共识,选择离中心最近的答案。
公式:语义中心 = argmin_c Σ(w_i × distance(c, embedding_i)²)
章节 04
在7个基准测试(涵盖短问答/长推理)、5个开源模型上,RCS各变体均超越多数投票等基线。随着采样数量N增加,优势更明显;可用于多智能体辩论场景;黑盒API场景(无概率信息)仍适用。
章节 05
章节 06
章节 07