-- LangChain 智能体开发/编排/微调特训营
技术标签
(融合:LangChain 智能体 / RAG / LangGraph / MCP / Streamlit / FastAPI / Ollama / vLLM / LLaMA-Factory 微调与部署)
培训天数
• 培训周期:8 天,共约64 课时(按8 课时/天 计算)
培训对象
• 希望系统掌握大模型应用开发与智能体工程化落地的:
- 后端/全栈开发工程师、算法工程师、数据工程师
- 企业内部创新应用、AI 平台建设相关技术人员
• 计划在企业内部落地:
- 私有知识库问答、Agent 助手、业务流程自动化
- 本地化部署与微调私有大模型的技术团队
入学要求
• 熟悉Python语法和数据分析
• 具备基本的 Web 技术/HTTP 接口调用概念
• 具备基础的 Linux / 应用环境使用经验更佳
培训目标
1. 理解大模型(LLM)的训练原理、推理模型与指令模型差异,掌握高效提示词编写方法。
2. 熟练使用 OpenAI 接口、LangChain 1.0,完成智能体构建、工具调用、记忆管理与 RAG 检索增强应用。
3. 掌握 LangGraph 多智能体工作流编排方法,实现复杂业务流程自动化与人类干预(Human-in-the-loop)。
4. 能够基于 Streamlit + LangServe + FastAPI 搭建 Web/移动端智能体应用,并完成 API 化部署与安全控制。
5. 能够使用 Ollama、vLLM、OpenWebUI 实现本地大模型部署、推理与知识库/智能体配置。
6. 掌握基于 LLaMA-Factory 的 LoRA 轻量化微调、RLHF / DPO、量化与模型导出,将微调模型部署到 Ollama / vLLM 等生产环境。
课程大纲
第1天:本地大模型与 LangChain 1.0 快速入门
1. LLM 大模型理论基础(入门版)
- 大模型是怎么炼成的
- 理解推理模型和指令模型
- 高效提示词编写思路
2. OpenAI 接口编程实战
- 实现单轮 / 多轮聊天
- 流式输出(Streaming)
- 结构化输出(定义 JSON Schema 等)
- 多模态大模型使用(图文等)
3. LangChain 1.0 基础与 Chat Models
- LangChain1.0 基本模块和架构介绍
- Chat Models 基本概念及使用方式
- 使用 init_chat_models 接入 DeepSeek
- 接入智谱(zhipuai)与通义千问大模型
4. Agent 基础与快速体验
- 理解 Agent 基本概念
- 快速创建 Agent(基于 LangChain 1.0)
- Agent 的流式输出
- 结构化输出 JSON 格式
第2天:LangChain 智能体进阶与工具调用、中间件
1. Content Blocks 与多模态内容建模
- Content Blocks 统一接口:文本内容、推理内容
- 文本 + 推理内容的结构化管理
2. 工具调用与多模态智能体
- 理解 OpenAI 工具调用机制
- 实现联网搜索工具(如搜索引擎、汇率兑换工具使用)
- 理解和使用多模态,实现车牌解析
- 给智能体添加工具调用,理解 Function Call 与 ReAct 模式
3. 对话记忆管理(短期 + 长期)
- 使用短期记忆(基于多轮聊天历史)
- 短期记忆 CheckPoint 管理
- 聊天历史管理(删除与摘要)
- 使用长期记忆(跨会话多轮聊天)
4. 中间件与智能体控制
- 理解中间件基本概念
- AgentMiddleware 的钩子函数
- 使用装饰器实现中间件
- 自定义中间件 —— 演示敏感词过滤
5. 系统中间件与安全控制
- 系统 Summarization 摘要中间件
- Context Editing Middleware 上下文编辑中间件
- 安全和控制类中间件
- Model Call Limit 和 Tool Call Limit
- Human-in-the-loop:人类干预中间件使用
第3天:LangChain RAG 增强检索与知识库智能体
1. Embedding 嵌入与相似度匹配基础
- 理解 Embedding 嵌入基本概念
- 使用智谱 AI 和通义千问嵌入大模型
- 使用余弦相似度实现语义匹配
2. 向量数据库 Chroma DB 实战
- Chroma DB 基本概念
- 创建和管理 Collection
- 文档添加与向量检索
3. RAG 增强检索架构与知识库构建
- 理解 RAG 增强检索架构流程
- 构建向量数据库:实现“华中科技大学学生手册知识库”
· 加载本地 PDF 文档
· 文档清洗
· 文档拆分、构建元数据与灌库
· 向量数据库基本维护
· 召回测试,评估知识库质量
4. 知识库检索智能体构建
- 构建两步式 RAG,实现知识库检索智能体
- 使用工具调用方式,增强知识库检索智能体
- 使用 BeautifulSoup(BS4)实现 Web 网页爬虫方式创建知识库
5. RAG 应用质量评估与优化
- 如何评估 RAG 应用的质量
- 使用 BM25Retriever 实现混合检索(向量 + 关键词)
- 实现重排序增强 RAG 检索效果
- 实现重问(query rewriting)增强检索效果
第4天:LangGraph 工作流编排与多智能体协作
1. LangGraph 概述与核心设计
- LangGraph 概述、关键特性和核心设计
- LangGraph 的核心理念:StateGraph、Nodes 和 Edges
2. LangGraph 核心概念与用法
- State 状态使用
- Node 节点设计
- 深入理解 Edge(静态/动态边)
- 理解动态路由(根据状态选择不同路径)
- 调用子图(子工作流)
3. 工作流构建案例
- 构建多步骤工作流
- 案例:发票信息提取流程编排
- 案例:制作公司宣传海报流程编排
- 案例:调用 Redis 实现智能问答
4. 使用 LangGraph 构建智能体工作流
- 构建多轮聊天工作流
- 持久化聊天信息
- 集成工具调用
- 人类干预节点设计(Human-in-the-loop)
- Time Travel 时间回溯
- 图的 Stream 支持(流式可视化)
- 多智能体架构实现(Agent 协作)
第5天:MCP 服务扩展与 Web/移动端应用工程化落地
1. MCP(Model Context Protocol)服务基础
- 理解 MCP 基本概念
- 注册高德 MCP 服务
- 使用 Agent 调用高德地图 MCP 工具(基本调用与演示)
2. 自定义 MCP Server
- 创建自定义 MCP Server
- 实现自定义 MCP Server 调用
3. 使用 Streamlit 搭建 Web/移动端 Agent 应用
- 创建 Streamlit Web 应用
- 文本、数据展示
- 图表可视化组件与 Form 表单元素
- 页面布局与容器设计
- 多页面与页面导航
- 理解 Session 机制
- 基于 Streamlit 实现 PC Web Agent 聊天应用
- 基于 Streamlit 实现移动端 Agent 聊天应用
- Streamlit 发布与部署
4. LangChain 部署:LangServe + FastAPI 工程化
- LangChain 部署:Serving with LangServe
- 理解 FastAPI,实现开发 API 接口
- 理解 RESTful 风格 API 设计规范
- 开发业务 API 接口(智能体 / RAG / 工作流)
- 使用 Token 实现身份认证机制
- FastAPI 服务发布与部署
- 使用 requests 调用 API 服务
5. 综合案例实战与总结
- 综合案例:完整实现一个 Agent 聊天应用的开发和部署
- 课程阶段性总结与企业落地建议
第6天:使用 Ollama、vLLM 部署和应用本地大模型
1. Ollama 本地大模型管理
- Ollama 简介
- Ollama 安装和常用参数配置
- 管理本地大模型(下载、更新、删除、配置)
2. HuggingFace 模型社区
- HuggingFace 简介
- 注册与安装(CLI / SDK)
- 模型探索与推理
- 下载模型到本地
3. ModelScope 魔塔社区
- ModelScope 魔塔社区简介
- 模型探索与推理
- 下载模型
4. vLLM 高性能推理与 API 服务
- vLLM 推理环境准备:租用算力服务器
- 使用 vLLM 实现模型推理
- 使用 vLLM 实现部署模型 API 服务
· 支持 deepseek-r1、Qwen3、嵌入模型等
- 使用 OpenAI 风格接口实现模型推理(兼容 OpenAI SDK/协议)
5. OpenWebUI 全流程应用
- 下载和安装 OpenWebUI
- 使用 OpenWebUI
· 注册帐号
· 模型配置
· 交互管理
6. OpenWebUI 知识库与智能体
- 使用 OpenWebUI,实现知识库创建
- 使用 OpenWebUI 配置工具:搜索引擎、天气预报等
- 使用 OpenWebUI 构建智能体(结合前 5 天 Agent 实战经验)
第7天:LLaMA-Factory 微调基础
1. 大模型原理基础(从微调视角深入)
- 大模型是如何训练的?
- 理解注意力机制(Self-Attention)
- 理解 Transformer 架构
- 生成式语言模型 GPT 基础
- 理解强化学习 RLHF 流程与思想
2. Fine-tuning 微调基本概念
- 什么是 Fine-tuning 模型微调
- 微调的具体方法
- 轻量化微调概念
- 低秩适应微调 LoRA 工作原理
- LoRA 微调流程
- 模型选择和微调数据需求
- 评估微调后的模型能力
3. LLaMA-Factory 框架入门
- LLaMA-Factory 框架简介
- 安装 LLaMA-Factory 框架并搭建微调环境
- 基座模型下载
4. 数据集准备与标准格式
- Identity.json 认知数据集
- 下载和转换数据集
- 理解 alpaca、ShareGPT、OpenAI 格式规范
5. 启动训练与基础测试
- 开始训练模型:什么是 SFT(Supervised Fine-Tuning)
- 训练命令介绍及关键参数说明
- 启动训练与监控
- 使用训练好的模型进行聊天测试(对比微调前后效果)
第8天:LLaMA-Factory 微调进阶、量化与生产部署
1. 模型训练进阶与超参数调优
- 理解模型训练中的超参数调优
- 动态合并模型策略(如多阶段 LoRA 合并)
2. 模型评估与导出
- 模型评估:
· 通用能力评估
· NLG 文本生成评估
- 导出 LoRA 模型
- 将导出模型转换为 Ollama 支持格式(便于本地部署)
3. 量化与预训练方向
- 理解和实现模型量化(如 INT4/INT8)
- 理解和实现模型微调:预训练方向的延伸
4. LLaMA-Factory + RLHF / DPO 实战
- LLaMA-Factory 基于 RLHF 的实践流程
- 下载和整理 RLHF / DPO 数据集
- DPO(Direct Preference Optimization)微调与推理
- 模型评估与导出
5. LLaMA-Factory 接口与 WebUI Board 一站式管理
- LLaMA-Factory 接口调用方法
- 一站式 WebUI Board 使用:
· 模型配置
· 推理
· 训练
· 评估和导出
6. 基于 Transformers 库的 LoRA 微调 Pipeline 实现
- 基于 Transformers 库实现 LoRA 模型微调流程
- 结合前几天的部署方案,将微调模型接入:
· Ollama / vLLM / OpenWebUI
· LangChain / LangGraph 工作流
- 形成“微调—部署—调用—工作流编排”的闭环演示












