AI大模型全栈开发实战

AI大模型全栈开发实战

-- LangChain 智能体开发/编排/微调特训营


技术标签

(融合:LangChain 智能体 / RAG / LangGraph / MCP / Streamlit / FastAPI / Ollama / vLLM / LLaMA-Factory 微调与部署)


培训天数  

• 培训周期:8 天,共约64 课时(按8 课时/天 计算)

  

培训对象

• 希望系统掌握大模型应用开发与智能体工程化落地的:

  - 后端/全栈开发工程师、算法工程师、数据工程师

  - 企业内部创新应用、AI 平台建设相关技术人员

• 计划在企业内部落地:

  - 私有知识库问答、Agent 助手、业务流程自动化

  - 本地化部署与微调私有大模型的技术团队


入学要求

• 熟悉Python语法和数据分析

• 具备基本的 Web 技术/HTTP 接口调用概念

• 具备基础的 Linux / 应用环境使用经验更佳

 

培训目标

1. 理解大模型(LLM)的训练原理、推理模型与指令模型差异,掌握高效提示词编写方法。

2. 熟练使用 OpenAI 接口、LangChain 1.0,完成智能体构建、工具调用、记忆管理与 RAG 检索增强应用。

3. 掌握 LangGraph 多智能体工作流编排方法,实现复杂业务流程自动化与人类干预(Human-in-the-loop)。

4. 能够基于 Streamlit + LangServe + FastAPI 搭建 Web/移动端智能体应用,并完成 API 化部署与安全控制。

5. 能够使用 Ollama、vLLM、OpenWebUI 实现本地大模型部署、推理与知识库/智能体配置。

6. 掌握基于 LLaMA-Factory 的 LoRA 轻量化微调、RLHF / DPO、量化与模型导出,将微调模型部署到 Ollama / vLLM 等生产环境。


课程大纲  

第1天:本地大模型与 LangChain 1.0 快速入门

1. LLM 大模型理论基础(入门版)

   - 大模型是怎么炼成的

   - 理解推理模型和指令模型

   - 高效提示词编写思路

2. OpenAI 接口编程实战

   - 实现单轮 / 多轮聊天

   - 流式输出(Streaming)

   - 结构化输出(定义 JSON Schema 等)

   - 多模态大模型使用(图文等)

3. LangChain 1.0 基础与 Chat Models

   - LangChain1.0 基本模块和架构介绍

   - Chat Models 基本概念及使用方式

   - 使用 init_chat_models 接入 DeepSeek

   - 接入智谱(zhipuai)与通义千问大模型

4. Agent 基础与快速体验

   - 理解 Agent 基本概念

   - 快速创建 Agent(基于 LangChain 1.0)

   - Agent 的流式输出

   - 结构化输出 JSON 格式


第2天:LangChain 智能体进阶与工具调用、中间件

1. Content Blocks 与多模态内容建模

   - Content Blocks 统一接口:文本内容、推理内容

   - 文本 + 推理内容的结构化管理

2. 工具调用与多模态智能体

   - 理解 OpenAI 工具调用机制

   - 实现联网搜索工具(如搜索引擎、汇率兑换工具使用)

   - 理解和使用多模态,实现车牌解析

   - 给智能体添加工具调用,理解 Function Call 与 ReAct 模式

3. 对话记忆管理(短期 + 长期)

   - 使用短期记忆(基于多轮聊天历史)

   - 短期记忆 CheckPoint 管理

   - 聊天历史管理(删除与摘要)

   - 使用长期记忆(跨会话多轮聊天)

4. 中间件与智能体控制

   - 理解中间件基本概念

   - AgentMiddleware 的钩子函数

   - 使用装饰器实现中间件

   - 自定义中间件 —— 演示敏感词过滤

5. 系统中间件与安全控制

   - 系统 Summarization 摘要中间件

   - Context Editing Middleware 上下文编辑中间件

   - 安全和控制类中间件

   - Model Call Limit 和 Tool Call Limit

   - Human-in-the-loop:人类干预中间件使用


第3天:LangChain RAG 增强检索与知识库智能体

1. Embedding 嵌入与相似度匹配基础

   - 理解 Embedding 嵌入基本概念

   - 使用智谱 AI 和通义千问嵌入大模型

   - 使用余弦相似度实现语义匹配

2. 向量数据库 Chroma DB 实战

   - Chroma DB 基本概念

   - 创建和管理 Collection

   - 文档添加与向量检索

3. RAG 增强检索架构与知识库构建

   - 理解 RAG 增强检索架构流程

   - 构建向量数据库:实现“华中科技大学学生手册知识库”

     · 加载本地 PDF 文档

     · 文档清洗

     · 文档拆分、构建元数据与灌库

     · 向量数据库基本维护

     · 召回测试,评估知识库质量

4. 知识库检索智能体构建

   - 构建两步式 RAG,实现知识库检索智能体

   - 使用工具调用方式,增强知识库检索智能体

   - 使用 BeautifulSoup(BS4)实现 Web 网页爬虫方式创建知识库

5. RAG 应用质量评估与优化

   - 如何评估 RAG 应用的质量

   - 使用 BM25Retriever 实现混合检索(向量 + 关键词)

   - 实现重排序增强 RAG 检索效果

   - 实现重问(query rewriting)增强检索效果


第4天:LangGraph 工作流编排与多智能体协作

1. LangGraph 概述与核心设计

   - LangGraph 概述、关键特性和核心设计

   - LangGraph 的核心理念:StateGraph、Nodes 和 Edges

2. LangGraph 核心概念与用法

   - State 状态使用

   - Node 节点设计

   - 深入理解 Edge(静态/动态边)

   - 理解动态路由(根据状态选择不同路径)

   - 调用子图(子工作流)

3. 工作流构建案例

   - 构建多步骤工作流

   - 案例:发票信息提取流程编排

   - 案例:制作公司宣传海报流程编排

   - 案例:调用 Redis 实现智能问答

4. 使用 LangGraph 构建智能体工作流

   - 构建多轮聊天工作流

   - 持久化聊天信息

   - 集成工具调用

   - 人类干预节点设计(Human-in-the-loop)

   - Time Travel 时间回溯

   - 图的 Stream 支持(流式可视化)

   - 多智能体架构实现(Agent 协作)


第5天:MCP 服务扩展与 Web/移动端应用工程化落地

1. MCP(Model Context Protocol)服务基础

   - 理解 MCP 基本概念

   - 注册高德 MCP 服务

   - 使用 Agent 调用高德地图 MCP 工具(基本调用与演示)

2. 自定义 MCP Server

   - 创建自定义 MCP Server

   - 实现自定义 MCP Server 调用

3. 使用 Streamlit 搭建 Web/移动端 Agent 应用

   - 创建 Streamlit Web 应用

   - 文本、数据展示

   - 图表可视化组件与 Form 表单元素

   - 页面布局与容器设计

   - 多页面与页面导航

   - 理解 Session 机制

   - 基于 Streamlit 实现 PC Web Agent 聊天应用

   - 基于 Streamlit 实现移动端 Agent 聊天应用

   - Streamlit 发布与部署

4. LangChain 部署:LangServe + FastAPI 工程化

   - LangChain 部署:Serving with LangServe

   - 理解 FastAPI,实现开发 API 接口

   - 理解 RESTful 风格 API 设计规范

   - 开发业务 API 接口(智能体 / RAG / 工作流)

   - 使用 Token 实现身份认证机制

   - FastAPI 服务发布与部署

   - 使用 requests 调用 API 服务

5. 综合案例实战与总结

   - 综合案例:完整实现一个 Agent 聊天应用的开发和部署

   - 课程阶段性总结与企业落地建议

  

第6天:使用 Ollama、vLLM 部署和应用本地大模型

1. Ollama 本地大模型管理

   - Ollama 简介

   - Ollama 安装和常用参数配置

   - 管理本地大模型(下载、更新、删除、配置)

2. HuggingFace 模型社区

   - HuggingFace 简介

   - 注册与安装(CLI / SDK)

   - 模型探索与推理

   - 下载模型到本地

3. ModelScope 魔塔社区

   - ModelScope 魔塔社区简介

   - 模型探索与推理

   - 下载模型

4. vLLM 高性能推理与 API 服务

   - vLLM 推理环境准备:租用算力服务器

   - 使用 vLLM 实现模型推理

   - 使用 vLLM 实现部署模型 API 服务

     · 支持 deepseek-r1、Qwen3、嵌入模型等

   - 使用 OpenAI 风格接口实现模型推理(兼容 OpenAI SDK/协议)

5. OpenWebUI 全流程应用

   - 下载和安装 OpenWebUI

   - 使用 OpenWebUI

     · 注册帐号

     · 模型配置

     · 交互管理

6. OpenWebUI 知识库与智能体

   - 使用 OpenWebUI,实现知识库创建

   - 使用 OpenWebUI 配置工具:搜索引擎、天气预报等

   - 使用 OpenWebUI 构建智能体(结合前 5 天 Agent 实战经验)


第7天:LLaMA-Factory 微调基础

1. 大模型原理基础(从微调视角深入)

   - 大模型是如何训练的?

   - 理解注意力机制(Self-Attention)

   - 理解 Transformer 架构

   - 生成式语言模型 GPT 基础

   - 理解强化学习 RLHF 流程与思想

2. Fine-tuning 微调基本概念

   - 什么是 Fine-tuning 模型微调

   - 微调的具体方法

   - 轻量化微调概念

   - 低秩适应微调 LoRA 工作原理

   - LoRA 微调流程

   - 模型选择和微调数据需求

   - 评估微调后的模型能力

3. LLaMA-Factory 框架入门

   - LLaMA-Factory 框架简介

   - 安装 LLaMA-Factory 框架并搭建微调环境

   - 基座模型下载

4. 数据集准备与标准格式

   - Identity.json 认知数据集

   - 下载和转换数据集

   - 理解 alpaca、ShareGPT、OpenAI 格式规范

5. 启动训练与基础测试

   - 开始训练模型:什么是 SFT(Supervised Fine-Tuning)

   - 训练命令介绍及关键参数说明

   - 启动训练与监控

   - 使用训练好的模型进行聊天测试(对比微调前后效果)


第8天:LLaMA-Factory 微调进阶、量化与生产部署

1. 模型训练进阶与超参数调优

   - 理解模型训练中的超参数调优

   - 动态合并模型策略(如多阶段 LoRA 合并)

2. 模型评估与导出

   - 模型评估:

     · 通用能力评估

     · NLG 文本生成评估

   - 导出 LoRA 模型

   - 将导出模型转换为 Ollama 支持格式(便于本地部署)

3. 量化与预训练方向

   - 理解和实现模型量化(如 INT4/INT8)

   - 理解和实现模型微调:预训练方向的延伸

4. LLaMA-Factory + RLHF / DPO 实战

   - LLaMA-Factory 基于 RLHF 的实践流程

   - 下载和整理 RLHF / DPO 数据集

   - DPO(Direct Preference Optimization)微调与推理

   - 模型评估与导出

5. LLaMA-Factory 接口与 WebUI Board 一站式管理

   - LLaMA-Factory 接口调用方法

   - 一站式 WebUI Board 使用:

     · 模型配置

     · 推理

     · 训练

     · 评估和导出

6. 基于 Transformers 库的 LoRA 微调 Pipeline 实现

   - 基于 Transformers 库实现 LoRA 模型微调流程

   - 结合前几天的部署方案,将微调模型接入:

     · Ollama / vLLM / OpenWebUI

     · LangChain / LangGraph 工作流

   - 形成“微调—部署—调用—工作流编排”的闭环演示


课程推荐

最新课表
免费课程预约