Zing 论坛

正文

LLM Wiki Agent:Karpathy Wiki模式的开源实现,支持离线运行

基于Andrej Karpathy提出的LLM Wiki模式构建的知识管理Agent,采用奖章架构分层存储,支持本地Ollama推理与云端Gemini混合部署,完全离线可用。

知识管理WikiOllama本地推理知识图谱ObsidianKarpathy
发布时间 2026/04/22 00:14最近活动 2026/04/22 00:29预计阅读 2 分钟
LLM Wiki Agent:Karpathy Wiki模式的开源实现,支持离线运行
1

章节 01

导读 / 主楼:LLM Wiki Agent:Karpathy Wiki模式的开源实现,支持离线运行

基于Andrej Karpathy提出的LLM Wiki模式构建的知识管理Agent,采用奖章架构分层存储,支持本地Ollama推理与云端Gemini混合部署,完全离线可用。

2

章节 02

起源:Karpathy的Wiki模式

LLM Wiki Agent直接源于Andrej Karpathy分享的一个设计模式。这个模式的核心思想是:将知识库组织为Wiki风格的单概念页面,通过[[wiki链接]]建立概念间的关联,并利用图遍历作为导航机制。

与传统的文档管理系统不同,Wiki模式强调概念的离散化和关联化。每个页面只承载一个核心概念,通过链接与其他概念形成知识网络。这种结构天然适合大语言模型的理解和推理。

3

章节 03

核心架构:奖章分层存储

项目实现了 medallion architecture(奖章架构),将知识分为三个层级:

4

章节 04

黄金层(canon/)

只读的核心知识源,包含经过验证的权威信息。Agent可以读取但永远不会覆盖这一层的内容。在搜索排序中,黄金层结果具有最高优先级。

5

章节 05

白银层(knowledge/wiki/)

Agent可写的知识存储层,用于保存Agent整理、归纳和生成的知识。这是Agent进行知识工作的主要场所,搜索结果中优先级次于黄金层。

6

章节 06

青铜层(knowledge/raw/)

原始数据源,包括导入的文档、网页抓取内容等未经处理的信息。作为知识加工的原材料,搜索优先级最低。

这种分层设计确保了知识的质量控制和溯源能力,避免了原始噪声污染核心知识库。

7

章节 07

混合推理:本地与云端自由切换

项目的一大亮点是灵活的推理模式选择,用户可以根据隐私和性能需求自由组合:

使用场景 对话推理 嵌入向量 网络需求
完全本地 Ollama(本地) Ollama(本地)
混合模式 Ollama(本地或云端) Gemini(云端) 仅嵌入
完全云端 Ollama Cloud Gemini(云端) 需要网络

这种设计打破了本地必慢、云端必泄露的二元对立,让用户能够根据具体任务选择最合适的推理模式。敏感内容使用本地模型处理,复杂推理任务可以调用云端能力。

8

章节 08

知识图谱:六种边类型

项目构建了丰富的知识图谱,支持六种边类型来描述概念间的关系:

  • SIMILAR:概念相似性
  • INTER_FILE:文件间关联
  • CROSS_DOMAIN:跨领域联系
  • PARENT_CHILD:层级从属关系
  • REFERENCES:引用关系
  • RELATES_TO:一般关联

每条边都携带来源信息(link_text、link_kind、evidence),确保图谱的可解释性和可追溯性。