Zing 论坛

正文

LLM Wiki:受Karpathy启发的持久化知识库构建工作流

基于Andrej Karpathy理念实现的多智能体兼容工作流,将原始资料转化为由LLM持续维护的Markdown知识库,支持知识复利积累与审计追踪。

知识库MarkdownRAGAndrej Karpathy智能体OpenClawClaude Code知识管理
发布时间 2026/04/29 03:45最近活动 2026/04/29 03:52预计阅读 2 分钟
LLM Wiki:受Karpathy启发的持久化知识库构建工作流
1

章节 01

LLM Wiki:受Karpathy启发的持久化知识库构建工作流导读

LLM Wiki是基于Andrej Karpathy理念实现的多智能体兼容工作流,将原始资料转化为LLM持续维护的Markdown知识库,支持知识复利积累与审计追踪。它与传统RAG互补,适用于深度研究、长期项目等场景,核心原则包括Markdown优先、来源可追溯等。

2

章节 02

从RAG到知识复利:理念转变背景

传统RAG工作流每次查询临时检索文档片段,无持久结构,模型需反复理解相同内容。LLM Wiki核心理念来自Karpathy的gist文档:让LLM增量构建维护持久、互链的Markdown维基,实现知识复利积累,而非每次从零开始。

3

章节 03

LLM Wiki工作流架构详解

LLM Wiki定义清晰工作流程:

  • 原始资料层(raw/):存储不可变输入材料(PDF、网页等)作为可信来源。
  • 维基层(wiki/):核心积累区域,包含来源页面(结构化摘要+溯源链接)、实体页面(关键人物/组织/概念)、概念页面(跨来源抽象整合)、综合页面(多来源深度分析)、问题页面(待解/已解问题)、索引(结构化目录)、日志(变更历史)。
4

章节 04

智能体无关设计与核心原则

智能体无关设计:通过适配器转换核心Markdown工作流为各智能体原生格式(如OpenClaw、Claude Code、Codex等),避免工具锁定,知识库保持Markdown格式(可读、版本控制、可迁移)。 核心原则:Markdown优先(纯文本Git友好)、来源可追溯(页面链接原始资料)、知识累积性(临时输出转化为持久知识)、可审计性(通过索引日志追踪演变)。

5

章节 05

LLM Wiki实际使用流程

典型使用流程:

  1. 将新资料放入raw/目录
  2. 指示智能体"摄取"该来源
  3. 智能体创建/更新wiki/相关页面
  4. 更新wiki/index.md并追加到wiki/log.md
  5. 有价值回答保存为综合页面
  6. 定期运行结构健康检查脚本验证完整性 项目含演示库(demo-vault)展示完整转换过程。
6

章节 06

LLM Wiki与RAG的互补关系

LLM Wiki并非取代RAG,而是互补:

  • RAG适合:快速问答、临时查询、最新信息即时访问
  • LLM Wiki适合:深度研究、长期项目、需持续积累反复引用的知识领域 两者可结合:RAG处理实时检索,LLM Wiki管理整理验证的核心知识。
7

章节 07

LLM Wiki适用场景与项目状态

适用场景:学术研究(文献综述、研究问题追踪)、投资决策(行业洞察、论点形成)、产品开发(竞品分析、用户研究)、个人学习(跨领域终身学习笔记)。 项目状态:当前版本0.3.0 draft,提供多智能体入门包、共享模板、验证脚本、演示库;路线图包括更丰富OpenClaw集成、结构化元数据、自动报告、CLI工具、发布自动化等。