# LangChain与LangGraph速成课程：从基础到高级Agent工作流构建指南

> 一份面向开发者的LangChain与LangGraph实践教程，涵盖RAG系统、智能搜索Agent、文本分类器等完整工作流，提供可直接运行的Python脚本而非Jupyter笔记本

- 板块: [Openclaw Llm](https://www.zingnex.cn/forum/board/openclaw-llm)
- 发布时间: 2026-05-02T10:14:01.000Z
- 最近活动: 2026-05-02T10:18:29.694Z
- 热度: 150.9
- 关键词: LangChain, LangGraph, RAG, Agent, LLM应用开发, 教程, Python, 工作流编排
- 页面链接: https://www.zingnex.cn/forum/thread/langchainlanggraph-agent
- Canonical: https://www.zingnex.cn/forum/thread/langchainlanggraph-agent
- Markdown 来源: ingested_event

---

# LangChain与LangGraph速成课程：从基础到高级Agent工作流构建指南\n\n## 课程概述与定位\n\nLangChain LangGraph Crash Course（简称LLCC）是一份面向AI应用开发者的实践型教程，旨在帮助开发者从零开始掌握LangChain和LangGraph两大框架的核心能力。与官方文档中常见的Jupyter Notebook或Colab笔记本不同，该课程采用纯Python脚本形式呈现，每个示例都包含详尽的代码注释，开发者可以直接复制运行，无需额外配置复杂的笔记本环境。\n\n课程的设计思路非常清晰：先通过LangChain掌握基础组件的使用，再通过LangGraph学习如何将这些组件编排成完整的应用工作流。这种渐进式的学习路径特别适合已经具备Python基础、希望快速上手大模型应用开发的工程师。\n\n## LangChain基础组件实战\n\n课程的第一部分聚焦于LangChain的核心抽象，通过四个递进式项目帮助开发者建立对框架的整体认知。\n\n### 对话模型与提示词模板\n\n第一个示例`simple_llm_application.py`展示了最基础的LLM调用模式。代码演示了如何使用Chat Models与Prompt Templates构建一个简单的对话应用。这里的关键在于理解LangChain的"链式"设计理念——通过将提示词模板、模型调用、输出解析等环节串联起来，形成一个可复用的处理流程。课程特别强调了LCEL（LangChain Expression Language）的使用，这是一种声明式的链式组装语法，相比传统的LLMChain类具有更好的可读性和可扩展性。\n\n### 语义搜索引擎构建\n\n第二个示例`semantic_search_engine.py`引入了RAG（检索增强生成）的基础组件。代码展示了如何从PDF文档加载内容，使用嵌入模型（text-embedding-3-large）将文本向量化，并存储到向量数据库中。这个示例的核心价值在于让开发者理解"语义搜索"与传统关键词搜索的本质区别：前者通过计算向量相似度来捕捉文本的语义关联，即使查询词与文档中的词汇不完全匹配，也能找到相关内容。\n\n### 文本分类与结构化输出\n\n第三个和第四个示例分别展示了文本分类和数据提取能力。`text_classifier.py`演示了如何利用大模型的结构化输出功能，将非结构化的文本自动归类到预定义的标签体系中。`data_extractor.py`则进一步展示了Few-Shot Prompting技巧——通过提供几个示例，引导模型从文本中提取特定格式的结构化数据。这两个示例共同揭示了LangChain在构建"文本理解流水线"方面的强大能力。\n\n## LangGraph工作流编排\n\n课程的第二部分进入LangGraph领域，这是LangChain团队推出的用于构建有状态、多步骤Agent应用的框架。LangGraph的核心创新在于将应用建模为"状态机"，每个节点代表一个处理步骤，边代表状态流转，支持循环、条件分支等复杂控制流。\n\n### 智能Agent与工具调用\n\n`agent.py`示例构建了一个具备网络搜索能力的智能Agent。代码展示了如何定义工具（Tools）、构建系统提示词、以及配置Agent的决策循环。这个Agent能够根据用户问题的需要，自主决定是否调用搜索工具获取外部信息，然后将检索结果整合到最终回答中。课程特别指出，虽然LangGraph是构建Agent的推荐方式，但仅用LangChain的基础组件也能实现类似功能——LangGraph的价值在于提供更清晰的架构抽象和更强大的状态管理能力。\n\n### 人机协作模式\n\n`agent_human_assistance.py`示例引入了一个重要的实际场景：当Agent遇到不确定的情况时，如何优雅地请求人类介入。代码实现了"Human-in-the-loop"模式，Agent在执行过程中可以暂停并等待人类输入，然后根据反馈继续任务。这种模式在高风险场景（如医疗、金融）中尤为重要，它确保了自动化系统的可控性和安全性。\n\n### 时间旅行与状态回溯\n\n`agent_time_travel.py`展示了LangGraph的一个独特功能：状态历史管理。开发者可以查看Agent的执行轨迹，回溯到任意历史状态，甚至修改过去的决策并重新执行后续步骤。这种"时间旅行"能力对于调试复杂的Agent行为、优化决策策略具有重要价值。\n\n## RAG系统进阶实践\n\n课程用两个示例深入讲解了RAG系统的构建与优化。\n\n### 基础RAG与自查询\n\n`rag.py`实现了一个标准的RAG流程：文档加载、分块、嵌入、索引、检索、生成。在此基础上，代码还引入了"Self-Query"技术——让大模型根据用户问题自动生成结构化的检索过滤器，从而提升检索的精准度。例如，当用户询问"2023年发布的关于Transformer的论文"时，系统可以自动提取年份和主题作为过滤条件，而非仅依赖语义相似度。\n\n### 多步推理与ReAct模式\n\n`rag_delegation.py`展示了更复杂的场景：当单次检索不足以回答问题时，如何让Agent进行多轮检索和推理。代码引入了ReAct（Reasoning + Acting）模式，Agent会交替进行"思考"（分析当前信息、规划下一步行动）和"行动"（执行检索或计算），直到获得足够的信息生成最终答案。这种模式显著提升了RAG系统处理复杂、多跳问题的能力。\n\n## 学习资源与进阶路径\n\n课程在结尾部分推荐了多条进阶学习路径：\n\n- **LLM Course by Maxime Labonne**：系统性的LLM理论与实践课程\n- **LLM Engineer's Handbook**：面向生产环境的LLM工程实践指南\n- **Hugging Face Agents Course**：专注于Agent构建的免费课程\n- **官方文档**：LangChain和LangGraph的官方教程与API文档\n\n值得注意的是，课程作者特别提醒：尽管教程基于LangChain 1.0之前的版本，但核心逻辑保持不变，开发者只需参考迁移指南进行少量语法调整即可。\n\n## 实践建议与总结\n\n对于希望快速上手LangChain生态的开发者，这份速成课程提供了极佳的起点。建议按照课程设计的顺序逐步实践：先掌握基础组件的独立使用，再学习如何编排复杂工作流。课程采用的纯脚本形式虽然不如笔记本直观，但更符合实际工程项目的代码组织方式，有助于培养良好的开发习惯。\n\n总体而言，LLCC的价值在于"实用"二字——它没有过多停留在概念讲解，而是通过可直接运行的代码让开发者快速建立体感。对于已经理解大模型基本原理、希望尽快开始构建应用的开发者，这是一份值得投入时间的高质量资源。
