章节 01
LLM Wiki:受Karpathy启发的持久化知识库构建工作流导读
LLM Wiki是基于Andrej Karpathy理念实现的多智能体兼容工作流,将原始资料转化为LLM持续维护的Markdown知识库,支持知识复利积累与审计追踪。它与传统RAG互补,适用于深度研究、长期项目等场景,核心原则包括Markdown优先、来源可追溯等。
正文
基于Andrej Karpathy理念实现的多智能体兼容工作流,将原始资料转化为由LLM持续维护的Markdown知识库,支持知识复利积累与审计追踪。
章节 01
LLM Wiki是基于Andrej Karpathy理念实现的多智能体兼容工作流,将原始资料转化为LLM持续维护的Markdown知识库,支持知识复利积累与审计追踪。它与传统RAG互补,适用于深度研究、长期项目等场景,核心原则包括Markdown优先、来源可追溯等。
章节 02
传统RAG工作流每次查询临时检索文档片段,无持久结构,模型需反复理解相同内容。LLM Wiki核心理念来自Karpathy的gist文档:让LLM增量构建维护持久、互链的Markdown维基,实现知识复利积累,而非每次从零开始。
章节 03
LLM Wiki定义清晰工作流程:
章节 04
智能体无关设计:通过适配器转换核心Markdown工作流为各智能体原生格式(如OpenClaw、Claude Code、Codex等),避免工具锁定,知识库保持Markdown格式(可读、版本控制、可迁移)。 核心原则:Markdown优先(纯文本Git友好)、来源可追溯(页面链接原始资料)、知识累积性(临时输出转化为持久知识)、可审计性(通过索引日志追踪演变)。
章节 05
典型使用流程:
raw/目录wiki/相关页面wiki/index.md并追加到wiki/log.md章节 06
LLM Wiki并非取代RAG,而是互补:
章节 07
适用场景:学术研究(文献综述、研究问题追踪)、投资决策(行业洞察、论点形成)、产品开发(竞品分析、用户研究)、个人学习(跨领域终身学习笔记)。 项目状态:当前版本0.3.0 draft,提供多智能体入门包、共享模板、验证脚本、演示库;路线图包括更丰富OpenClaw集成、结构化元数据、自动报告、CLI工具、发布自动化等。