章节 01
导读 / 主楼:LLM Wiki Agent:Karpathy Wiki模式的开源实现,支持离线运行
基于Andrej Karpathy提出的LLM Wiki模式构建的知识管理Agent,采用奖章架构分层存储,支持本地Ollama推理与云端Gemini混合部署,完全离线可用。
正文
基于Andrej Karpathy提出的LLM Wiki模式构建的知识管理Agent,采用奖章架构分层存储,支持本地Ollama推理与云端Gemini混合部署,完全离线可用。
章节 01
基于Andrej Karpathy提出的LLM Wiki模式构建的知识管理Agent,采用奖章架构分层存储,支持本地Ollama推理与云端Gemini混合部署,完全离线可用。
章节 02
LLM Wiki Agent直接源于Andrej Karpathy分享的一个设计模式。这个模式的核心思想是:将知识库组织为Wiki风格的单概念页面,通过[[wiki链接]]建立概念间的关联,并利用图遍历作为导航机制。
与传统的文档管理系统不同,Wiki模式强调概念的离散化和关联化。每个页面只承载一个核心概念,通过链接与其他概念形成知识网络。这种结构天然适合大语言模型的理解和推理。
章节 03
项目实现了 medallion architecture(奖章架构),将知识分为三个层级:
章节 04
只读的核心知识源,包含经过验证的权威信息。Agent可以读取但永远不会覆盖这一层的内容。在搜索排序中,黄金层结果具有最高优先级。
章节 05
Agent可写的知识存储层,用于保存Agent整理、归纳和生成的知识。这是Agent进行知识工作的主要场所,搜索结果中优先级次于黄金层。
章节 06
原始数据源,包括导入的文档、网页抓取内容等未经处理的信息。作为知识加工的原材料,搜索优先级最低。
这种分层设计确保了知识的质量控制和溯源能力,避免了原始噪声污染核心知识库。
章节 07
项目的一大亮点是灵活的推理模式选择,用户可以根据隐私和性能需求自由组合:
| 使用场景 | 对话推理 | 嵌入向量 | 网络需求 |
|---|---|---|---|
| 完全本地 | Ollama(本地) | Ollama(本地) | 无 |
| 混合模式 | Ollama(本地或云端) | Gemini(云端) | 仅嵌入 |
| 完全云端 | Ollama Cloud | Gemini(云端) | 需要网络 |
这种设计打破了本地必慢、云端必泄露的二元对立,让用户能够根据具体任务选择最合适的推理模式。敏感内容使用本地模型处理,复杂推理任务可以调用云端能力。
章节 08
项目构建了丰富的知识图谱,支持六种边类型来描述概念间的关系:
每条边都携带来源信息(link_text、link_kind、evidence),确保图谱的可解释性和可追溯性。