展开全部

主编推荐语

聚焦于基于大语言模型(LLM)构建智能体系统的全面解析。

内容简介

本书内容包括:LLM的核心原理、Agent的内部架构组成、LangChain与LangGraph框架、RAG检索增强生成机制、MCP上下文通信协议、A2A多智能体协作协议以及扣子低代码平台等一系列关键技术要点。

书中配备了大量翔实的案例与实战项目,引领读者逐步精通从模型调用直至系统集成的全流程操作,并详细阐释如何将诸如Qwen 3.0、DeepSeek-V1这类通用语言模型与外部工具进行深度整合,从而打造出拥有记忆功能、自主推理能力、任务分解技巧以及多轮交互特性的先进智能体系统。

此外,书中还贴心提供了配套的教学视频和示例源码,助力读者更加高效地学习本书知识。

目录

  • 版权信息
  • 内容简介
  • 作者简介
  • 前言
  • 第1章 大模型与智能体技术基础
  • 1.1 智能体发展的技术背景
  • 1.1.1 从专家系统到语言模型
  • 1.1.2 感知−认知−执行
  • 1.1.3 智能体的系统级结构模型
  • 1.2 大模型的基本架构
  • 1.2.1 Transformer结构剖析
  • 1.2.2 编码器与解码器机制
  • 1.2.3 注意力机制与多头注意力
  • 1.2.4 位置编码与上下文建模
  • 1.3 大模型能力边界与应用接口
  • 1.3.1 通用能力与推理能力
  • 1.3.2 输入长度限制与窗口控制
  • 1.3.3 提示词工程
  • 1.3.4 多模态模型
  • 1.4 构建语言智能体的基本流程
  • 1.4.1 任务建模与输入输出结构定义
  • 1.4.2 大模型API设计模式
  • 1.4.3 基于上下文的行为规划设计
  • 1.5 本章小结
  • 第2章 智能体系统的组成结构与运行机制
  • 2.1 智能体核心模块构成
  • 2.1.1 感知模块:输入理解与解析
  • 2.1.2 决策模块:推理与规划逻辑
  • 2.1.3 行动模块:工具执行与响应
  • 2.1.4 记忆模块:上下文与持久状态
  • 2.2 智能体生命周期管理
  • 2.2.1 启动与初始化过程
  • 2.2.2 对话状态追踪机制
  • 2.2.3 中断恢复与持久化上下文机制
  • 2.2.4 智能体注销与资源释放机制
  • 2.3 与外部系统的集成方式
  • 2.3.1 调用Web API与插件机制
  • 2.3.2 与数据库系统的读写操作
  • 2.3.3 文件系统与代码执行环境
  • 2.3.4 UI输入输出的中间层接口
  • 2.4 本章小结
  • 第3章 大模型开发基础
  • 3.1 模型服务部署架构
  • 3.1.1 OpenAI式SaaS调用方式
  • 3.1.2 本地部署Qwen 3.0模型流程
  • 3.1.3 模型微调与LoRA注入机制
  • 3.1.4 GPU资源调度与推理优化
  • 3.2 API调用设计模式
  • 3.2.1 Chat Completion API设计
  • 3.2.2 函数调用标准结构
  • 3.2.3 批处理与流式传输机制
  • 3.3 安全与内容控制机制
  • 3.3.1 敏感词过滤与红线审查
  • 3.3.2 输出可信度评估机制
  • 3.4 本章小结
  • 第4章 LangChain框架与智能体构建流程
  • 4.1 LangChain的核心组件
  • 4.1.1 LLM接口抽象结构
  • 4.1.2 Chains链式逻辑构造器
  • 4.1.3 Tools与Agent集成机制
  • 4.1.4 Memory记忆管理模块
  • 4.2 工具集成与函数调用机制
  • 4.2.1 工具函数包装规范
  • 4.2.2 Tool执行环境与沙箱控制
  • 4.2.3 多工具调用顺序管理
  • 4.3 LangChain Agent运行机制
  • 4.3.1 ReAct智能体结构
  • 4.3.2 自定义提示词驱动智能体
  • 4.3.3 工具链动态规划逻辑
  • 4.4 本章小结
  • 第5章 LangGraph智能体编排与任务流管理
  • 5.1 LangGraph概述
  • 5.1.1 从LangChain到LangGraph
  • 5.1.2 LangGraph在智能体体系中的定位
  • 5.1.3 面向复杂任务的图式化编排需求
  • 5.2 LangGraph的核心概念与结构
  • 5.2.1 节点与边的定义
  • 5.2.2 状态与上下文存储机制
  • 5.2.3 任务依赖与执行路径
  • 5.3 LangGraph与LangChain的互补关系
  • 5.3.1 链式调用与图式编排的差异
  • 5.3.2 与LangChain工具链的集成方式
  • 5.3.3 在复杂Agent系统中的联合使用
  • 5.4 LangGraph工程化实战
  • 5.4.1 LangGraph安装与运行环境准备
  • 5.4.2 基于LangGraph的简单任务流示例
  • 5.4.3 面向科研助手的多步骤任务实现
  • 5.4.4 结合外部工具与数据库的集成案例
  • 5.5 LangGraph与协议层的衔接
  • 5.5.1 与MCP的接口映射
  • 5.5.2 与A2A(多Agent通信协议)的结合
  • 5.5.3 面向大规模Agent网络的扩展性设计
  • 5.6 本章小结
  • 第6章 RAG机制:检索增强智能体
  • 6.1 RAG原理与系统架构
  • 6.1.1 检索-生成双阶段框架
  • 6.1.2 向量数据库的嵌入机制
  • 6.1.3 文档切片与Chunking策略
  • 6.1.4 基于语义相关度的召回机制
  • 6.2 文档预处理与向量化
  • 6.2.1 文本清洗与句元切分
  • 6.2.2 Embedding模型选择
  • 6.2.3 Faiss/Weaviate/Chroma部署
  • 6.3 基于LangChain的RAG实现
  • 6.3.1 RetrievalQA链路构建
  • 6.3.2 多段检索与Top-K融合
  • 6.3.3 文本与结构化数据混合检索
  • 6.4 本章小结
  • 第7章 MCP协议:模型上下文通信标准
  • 7.1 MCP协议基础设计理念
  • 7.1.1 模型上下文管理的核心难题
  • 7.1.2 上下文段结构化表示
  • 7.1.3 系统提示、记忆段、工具段定义
  • 7.2 上下文标注与路由机制
  • 7.2.1 metadata标签语义结构
  • 7.2.2 信息路由控制策略
  • 7.2.3 模型分支路由与入口决策逻辑
  • 7.3 上下文存储与回调机制
  • 7.3.1 持久化上下文日志设计
  • 7.3.2 提示词缓存与快速回放机制
  • 7.3.3 动态上下文合并策略
  • 7.4 本章小结
  • 第8章 单智能体系统构建实战
  • 8.1 单智能体结构设计
  • 8.1.1 输入输出流封装标准
  • 8.1.2 智能体状态管理机制
  • 8.2 工具调用链设计与调试
  • 8.2.1 工具注册与执行框架
  • 8.2.2 输入参数解析与封装
  • 8.2.3 工具异常处理机制
  • 8.3 记忆机制实现
  • 8.3.1 短期Memory与长期Memory
  • 8.3.2 LangChain中的Memory类详解
  • 8.3.3 上下文动态剪辑策略
  • 8.4 本章小结
  • 第9章 多智能体系统构建实战
  • 9.1 多智能体系统的基本结构
  • 9.1.1 主控智能体与子任务智能体划分
  • 9.1.2 智能体职责分工建模
  • 9.1.3 多智能体间的状态共享机制
  • 9.2 多智能体任务协调调度
  • 9.2.1 任务分配策略:轮询与权重
  • 9.2.2 任务依赖链与优先级控制
  • 9.2.3 子智能体并行执行管理
  • 9.3 多智能体消息传递机制
  • 9.3.1 智能体间的通信协议格式
  • 9.3.2 上下文切换与隔离设计
  • 9.3.3 状态同步与锁控制策略
  • 9.4 本章小结
  • 第10章 A2A协议:智能体之间的协作语言
  • 10.1 A2A协议设计概述
  • 10.1.1 什么是A2A协议
  • 10.1.2 消息格式与语义设计规范
  • 10.1.3 智能体身份认证与能力声明机制
  • 10.1.4 A2A协议与MCP协议在Qwen 3.0原生支持下的开发流程
  • 10.2 消息类型与调度规则
  • 10.2.1 Request-Response机制详解
  • 10.2.2 广播与订阅模型设计
  • 10.2.3 协商与竞争机制设计
  • 10.3 本章小结
  • 第11章 扣子低代码平台开发与智能体部署
  • 11.1 扣子平台结构与功能概览
  • 11.1.1 什么是扣子
  • 11.1.2 低代码开发模式与传统开发模式的区别
  • 11.1.3 搭建一个AI助手智能体
  • 11.2 基于扣子的智能体开发实战
  • 11.2.1 使用自然语言搭建智能体
  • 11.2.2 开发一个AI翻译应用
  • 11.3 扣子平台进阶开发
  • 11.3.1 扣子罗盘
  • 11.3.2 扣子空间
  • 11.3.3 扣子API与SDK开发进阶
  • 11.4 本章小结
  • 第12章 智能体系统的部署、扩展与维护实战
  • 12.1 智能体系统部署策略
  • 12.1.1 私有部署与云端部署比较
  • 12.1.2 Web服务化部署流程
  • 12.1.3 部署环境中的安全加固措施
  • 12.2 性能优化与可用性保障
  • 12.2.1 API负载均衡与异步任务调度
  • 12.2.2 缓存系统设计与多层级记忆
  • 12.2.3 智能体失败容错机制
  • 12.2.4 高并发场景的限流与降级策略
  • 12.3 本章小结
  • 第13章 项目案例:从零实现一个复合智能体系统
  • 13.1 项目需求分析与功能规划
  • 13.1.1 项目目标与业务流程分析
  • 13.1.2 多智能体协同模块划分
  • 13.1.3 用户交互界面设计要点
  • 13.1.4 数据结构与模型接口定义
  • 13.2 核心模块的开发过程
  • 13.2.1 用户意图识别与入口解析
  • 13.2.2 工具调用链与异常回退机制
  • 13.2.3 智能体子系统状态管理与调度
  • 13.2.4 RAG检索子系统设计与集成
  • 13.3 协议实现与部署流程
  • 13.3.1 MCP上下文路由配置
  • 13.3.2 A2A消息协议的模块注入
  • 13.3.3 LangChain核心逻辑集成
  • 13.4 项目测试与性能评估
  • 13.4.1 对话流程完整性测试流程
  • 13.4.2 工具调用正确率测试
  • 13.4.3 多用户并发测试与系统压测
  • 13.4.4 模型幻觉率与用户满意度评估
  • 13.5 本章小结
展开全部

评分及书评

评分不足
1个评分

出版方

清华大学出版社

清华大学出版社成立于1980年6月,是由教育部主管、清华大学主办的综合出版单位。植根于“清华”这座久负盛名的高等学府,秉承清华人“自强不息,厚德载物”的人文精神,清华大学出版社在短短二十多年的时间里,迅速成长起来。清华大学出版社始终坚持弘扬科技文化产业、服务科教兴国战略的出版方向,把出版高等学校教学用书和科技图书作为主要任务,并为促进学术交流、繁荣出版事业设立了多项出版基金,逐渐形成了以出版高水平的教材和学术专著为主的鲜明特色,在教育出版领域树立了强势品牌。