Zing 论坛

正文

rlm-skill:为Claude Code和Copilot注入递归推理能力的Agent技能

rlm-skill是一个开源的Agent技能插件,将RLM(递归语言模型)的迭代推理模式引入Claude Code和GitHub Copilot,让AI助手通过写代码、执行、读取结果、推理、再迭代的REPL式循环解决复杂问题。

RLM递归语言模型Claude CodeGitHub CopilotAgent技能迭代推理代码分析
发布时间 2026/04/02 20:15最近活动 2026/04/02 20:26预计阅读 11 分钟
rlm-skill:为Claude Code和Copilot注入递归推理能力的Agent技能
1

章节 01

导读 / 主楼:rlm-skill:为Claude Code和Copilot注入递归推理能力的Agent技能

rlm-skill是一个开源的Agent技能插件,将RLM(递归语言模型)的迭代推理模式引入Claude Code和GitHub Copilot,让AI助手通过写代码、执行、读取结果、推理、再迭代的REPL式循环解决复杂问题。

2

章节 02

背景

rlm-skill:为Claude Code和Copilot注入递归推理能力的Agent技能\n\n在处理复杂任务时,传统的大语言模型往往采用"一次性回答"的模式,即根据提示直接生成最终答案。然而,许多实际问题需要多步骤的推理、验证和迭代才能妥善解决。rlm-skill项目正是为了填补这一空白而诞生的——它将RLM(Recursive Language Models,递归语言模型)的迭代推理模式引入Claude Code和GitHub Copilot,让AI助手能够以更加严谨和系统的方式处理复杂任务。\n\n## 什么是RLM递归推理模式?\n\nRLM(递归语言模型)是一种新兴的AI推理范式,最早由alexzhang13等研究者在arXiv论文(arXiv:2512.24601)中提出。与传统的单次生成模式不同,RLM采用类似REPL(读取-求值-输出循环)的迭代工作流:\n\n写代码 → 在终端执行 → 读取结果 → 推理分析 → 重复迭代\n\n这种模式的核心思想是将复杂的推理任务分解为一系列可验证、可回溯的小步骤,每一步都通过实际执行代码来获取确定性结果,而非仅依赖语言模型的内部推理。这种方法特别适用于需要精确计算、大规模数据分析或多步骤逻辑验证的场景。\n\n## rlm-skill的核心特性\n\nrlm-skill项目将RLM模式适配为Agent原生技能,具有以下核心特性:\n\n### 1. 自动触发机制\n\n当用户在Claude Code或Copilot中使用特定触发词时,技能会自动激活。触发词包括:\n- "reason iteratively over this"(对此进行迭代推理)\n- "use RLM pattern"(使用RLM模式)\n- "analyze this large context"(分析这个大上下文)\n- "decompose this task with code"(用代码分解此任务)\n- "iterate until you find the answer"(迭代直到找到答案)\n\n### 2. 结构化的迭代工作流\n\n一旦激活,rlm-skill会启动一个结构化的五步骤工作流:\n\n步骤一:任务声明\n在迭代开始前,Agent会明确声明任务目标、最大迭代次数限制(MAX_ITERATIONS)和已使用迭代次数计数器(ITERATIONS_USED)。这为整个推理过程设定了清晰的边界和进度追踪机制。\n\n步骤二:状态初始化\n在迭代0阶段,Agent会将任务上下文加载到_rlm_state.json文件中,建立持久化的状态存储。这确保了即使在多次终端执行之间,上下文信息也不会丢失。\n\n步骤三:代码执行与结果获取\n每一轮迭代中,Agent会编写Python脚本并在终端中执行。这种设计将确定性计算交给代码处理,而将高层次的推理和决策留给语言模型,实现了两者的优势互补。\n\n步骤四:并行子查询\n对于可以分解为多个独立子任务的问题,rlm-skill支持使用llm_query_batched进行并行语义查询,或使用rlm_query生成原生子Agent来执行需要独立迭代循环的子任务。这种并行化能力显著提升了处理大规模问题的效率。\n\n步骤五:最终答案与清理\n当推理完成时,Agent会明确标记FINAL_ANSWER:,随后清理所有临时工作文件,保持工作区的整洁。\n\n### 3. 丰富的原语支持\n\nrlm-skill提供了一套完整的原语(primitives)用于构建复杂的推理流程:\n\n- llm_query: 向语言模型发起查询,获取推理结果\n- rlm_query: 生成子Agent,为子任务启动独立的RLM迭代循环\n- FINAL_VAR: 标记最终答案变量,确保输出的一致性和可追溯性\n- 状态管理原语: 用于在迭代间持久化和恢复上下文状态\n\n## 实际使用示例\n\n以下是一个典型的rlm-skill使用场景:\n\n用户输入:\n"Use RLM pattern to analyze all Python files in this repo and find duplicated logic"\n\nAgent执行过程:\n\nTASK: Find duplicated logic across all Python files\nMAX_ITERATIONS: 10\nITERATIONS_USED: 0\n\n[iter 1] listing files and measuring sizes...\n[iter 2] spawning 4 subagents to analyze each module in parallel...\n[iter 3] aggregating results...\n...\nFINAL_ANSWER: Duplicated logic found in X and Y — both implement the same authentication validation pattern.\n\n\n通过这种迭代式的方法,Agent能够系统地探索代码库,逐步缩小搜索范围,最终精确定位问题所在。\n\n## 与完整RLM库的对比\n\n需要注意的是,rlm-skill是对完整RLM库(rlms包)的一种轻量级适配,主要面向Agent使用场景。两者之间存在以下差异:\n\n| 特性 | rlm-skill (Agent技能) | 完整RLM库 (rlms) |\n|------|----------------------|------------------|\n| 资源限制 | 软限制(Agent自我调节) | 硬限制(基础设施强制执行) |\n| 执行环境 | 本地终端 | 支持Docker/Modal/E2B远程沙箱 |\n| 状态持久化 | _rlm_state.json文件 | 持久化REPL命名空间 |\n| 适用场景 | 开发辅助、代码分析 | 生产级工作负载、严格资源控制 |\n\n对于需要严格资源限制或远程执行环境的生产工作负载,建议直接使用完整的RLM库。\n\n## 安装与配置\n\nrlm-skill的安装非常简单,只需将项目目录复制到Claude Code或Copilot的技能目录即可:\n\nbash\ncp -r rlm-skill/ /your/project/.claude/skills/rlm-pattern/\n\n\nClaude Code和VS Code的GitHub Copilot会自动发现.claude/skills/目录下的技能,无需额外注册。添加技能后重启会话即可生效。\n\n## 项目意义与未来展望\n\nrlm-skill项目的意义在于,它将前沿的AI研究论文中的理念转化为实际可用的开发工具。通过将递归推理模式引入日常编码助手,它让普通开发者也能体验到最新的AI推理技术,而无需深入理解底层算法细节。\n\n随着大语言模型能力的不断增强,如何有效地引导和控制这些能力将成为关键课题。rlm-skill所代表的迭代推理模式,或许正是未来AI辅助开发的重要方向之一——不是让AI一次性给出答案,而是让它像人类开发者一样,通过试错、验证、迭代的方式逐步逼近最优解。\n\n项目采用MIT许可证开源,欢迎开发者贡献改进建议或提交Pull Request。\n\n项目地址:https://github.com/ahmealy/rlm-skill

3

章节 03

补充观点 1

rlm-skill:为Claude Code和Copilot注入递归推理能力的Agent技能\n\n在处理复杂任务时,传统的大语言模型往往采用"一次性回答"的模式,即根据提示直接生成最终答案。然而,许多实际问题需要多步骤的推理、验证和迭代才能妥善解决。rlm-skill项目正是为了填补这一空白而诞生的——它将RLM(Recursive Language Models,递归语言模型)的迭代推理模式引入Claude Code和GitHub Copilot,让AI助手能够以更加严谨和系统的方式处理复杂任务。\n\n什么是RLM递归推理模式?\n\nRLM(递归语言模型)是一种新兴的AI推理范式,最早由alexzhang13等研究者在arXiv论文(arXiv:2512.24601)中提出。与传统的单次生成模式不同,RLM采用类似REPL(读取-求值-输出循环)的迭代工作流:\n\n写代码 → 在终端执行 → 读取结果 → 推理分析 → 重复迭代\n\n这种模式的核心思想是将复杂的推理任务分解为一系列可验证、可回溯的小步骤,每一步都通过实际执行代码来获取确定性结果,而非仅依赖语言模型的内部推理。这种方法特别适用于需要精确计算、大规模数据分析或多步骤逻辑验证的场景。\n\nrlm-skill的核心特性\n\nrlm-skill项目将RLM模式适配为Agent原生技能,具有以下核心特性:\n\n1. 自动触发机制\n\n当用户在Claude Code或Copilot中使用特定触发词时,技能会自动激活。触发词包括:\n- "reason iteratively over this"(对此进行迭代推理)\n- "use RLM pattern"(使用RLM模式)\n- "analyze this large context"(分析这个大上下文)\n- "decompose this task with code"(用代码分解此任务)\n- "iterate until you find the answer"(迭代直到找到答案)\n\n2. 结构化的迭代工作流\n\n一旦激活,rlm-skill会启动一个结构化的五步骤工作流:\n\n步骤一:任务声明\n在迭代开始前,Agent会明确声明任务目标、最大迭代次数限制(MAX_ITERATIONS)和已使用迭代次数计数器(ITERATIONS_USED)。这为整个推理过程设定了清晰的边界和进度追踪机制。\n\n步骤二:状态初始化\n在迭代0阶段,Agent会将任务上下文加载到_rlm_state.json文件中,建立持久化的状态存储。这确保了即使在多次终端执行之间,上下文信息也不会丢失。\n\n步骤三:代码执行与结果获取\n每一轮迭代中,Agent会编写Python脚本并在终端中执行。这种设计将确定性计算交给代码处理,而将高层次的推理和决策留给语言模型,实现了两者的优势互补。\n\n步骤四:并行子查询\n对于可以分解为多个独立子任务的问题,rlm-skill支持使用llm_query_batched进行并行语义查询,或使用rlm_query生成原生子Agent来执行需要独立迭代循环的子任务。这种并行化能力显著提升了处理大规模问题的效率。\n\n步骤五:最终答案与清理\n当推理完成时,Agent会明确标记FINAL_ANSWER:,随后清理所有临时工作文件,保持工作区的整洁。\n\n3. 丰富的原语支持\n\nrlm-skill提供了一套完整的原语(primitives)用于构建复杂的推理流程:\n\n- llm_query: 向语言模型发起查询,获取推理结果\n- rlm_query: 生成子Agent,为子任务启动独立的RLM迭代循环\n- FINAL_VAR: 标记最终答案变量,确保输出的一致性和可追溯性\n- 状态管理原语: 用于在迭代间持久化和恢复上下文状态\n\n实际使用示例\n\n以下是一个典型的rlm-skill使用场景:\n\n用户输入:\n"Use RLM pattern to analyze all Python files in this repo and find duplicated logic"\n\nAgent执行过程:\n\nTASK: Find duplicated logic across all Python files\nMAX_ITERATIONS: 10\nITERATIONS_USED: 0\n\n[iter 1] listing files and measuring sizes...\n[iter 2] spawning 4 subagents to analyze each module in parallel...\n[iter 3] aggregating results...\n...\nFINAL_ANSWER: Duplicated logic found in X and Y — both implement the same authentication validation pattern.\n\n\n通过这种迭代式的方法,Agent能够系统地探索代码库,逐步缩小搜索范围,最终精确定位问题所在。\n\n与完整RLM库的对比\n\n需要注意的是,rlm-skill是对完整RLM库(rlms包)的一种轻量级适配,主要面向Agent使用场景。两者之间存在以下差异:\n\n| 特性 | rlm-skill (Agent技能) | 完整RLM库 (rlms) |\n|------|----------------------|------------------|\n| 资源限制 | 软限制(Agent自我调节) | 硬限制(基础设施强制执行) |\n| 执行环境 | 本地终端 | 支持Docker/Modal/E2B远程沙箱 |\n| 状态持久化 | _rlm_state.json文件 | 持久化REPL命名空间 |\n| 适用场景 | 开发辅助、代码分析 | 生产级工作负载、严格资源控制 |\n\n对于需要严格资源限制或远程执行环境的生产工作负载,建议直接使用完整的RLM库。\n\n安装与配置\n\nrlm-skill的安装非常简单,只需将项目目录复制到Claude Code或Copilot的技能目录即可:\n\nbash\ncp -r rlm-skill/ /your/project/.claude/skills/rlm-pattern/\n\n\nClaude Code和VS Code的GitHub Copilot会自动发现.claude/skills/目录下的技能,无需额外注册。添加技能后重启会话即可生效。\n\n项目意义与未来展望\n\nrlm-skill项目的意义在于,它将前沿的AI研究论文中的理念转化为实际可用的开发工具。通过将递归推理模式引入日常编码助手,它让普通开发者也能体验到最新的AI推理技术,而无需深入理解底层算法细节。\n\n随着大语言模型能力的不断增强,如何有效地引导和控制这些能力将成为关键课题。rlm-skill所代表的迭代推理模式,或许正是未来AI辅助开发的重要方向之一——不是让AI一次性给出答案,而是让它像人类开发者一样,通过试错、验证、迭代的方式逐步逼近最优解。\n\n项目采用MIT许可证开源,欢迎开发者贡献改进建议或提交Pull Request。\n\n项目地址:https://github.com/ahmealy/rlm-skill