展开全部

主编推荐语

本书聚焦于智能体技术前沿领域,系统阐述AI Agent智能体开发的技术栈及其示例。

内容简介

随着人工智能技术的蓬勃发展,大语言模型与智能体技术正引领着新一轮的技术革新。

全书共分16章,内容包括从大语言模型到智能体的演进、Agent开发环境配置、基于陪伴Agent的大模型微调、在线Qwen3大模型的基本使用、RAG与提示工程、Agent架构设计、多Agent跨境电商智能客服实战、多Agent协作的原生A2A协议详解、MCP协议与应用详解、云上MCP服务的部署与使用、高德地图MCP服务智能调用实战、构建个性化的arXiv科研论文MCP服务实战、基于gradio的云上MCP服务发布、基于MCP的旅游规划智能体开发实战、多智能体框架LangGraph与聊天助手实战、基于LangGraph的高品质住宅投研智能体开发实战。

目录

  • 版权信息
  • 作者简介
  • 内容简介
  • 前言
  • 第1章 从大语言模型到智能体的演进
  • 1.1 从大语言模型到智能体
  • 1.1.1 自回归大模型核心技术的突破
  • 1.1.2 大语言模型发展的里程碑
  • 1.1.3 从大语言模型到智能体
  • 1.2 Qwen3架构革新与性能跃迁
  • 1.2.1 Qwen3核心技术解读
  • 1.2.2 Qwen3并行计算效能跃迁
  • 1.2.3 Qwen3重新定义工作认知
  • 1.3 本章小结
  • 第2章 Agent开发环境配置
  • 2.1 智能体开发环境安装
  • 2.1.1 Miniconda的下载与安装
  • 2.1.2 PyTorch的下载与安装
  • 2.1.3 PyCharm编译器的安装与使用
  • 2.2 本地化Qwen3的下载与基础使用
  • 2.2.1 ModelScope简介
  • 2.2.2 Qwen3模型的本地化部署与使用
  • 2.2.3 Qwen3中思考模式的切换
  • 2.3 本章小结
  • 第3章 基于陪伴Agent的大模型微调
  • 3.1 大模型微调
  • 3.1.1 大模型微调的作用
  • 3.1.2 大模型微调技术有哪些
  • 3.2 二次元风格的陪伴Agent微调实战
  • 3.2.1 微调模型与数据集的准备
  • 3.2.2 使用TRL全量微调大模型
  • 3.2.3 使用微调后的大模型进行二次元风格问答
  • 3.3 本章小结
  • 第4章 在线Qwen3大模型的基本使用
  • 4.1 网页端Qwen3大模型的基本使用
  • 4.1.1 在线Qwen3的注册与基本使用
  • 4.1.2 不同提示词对回答的影响
  • 4.2 Qwen3在线API的使用
  • 4.2.1 在线Qwen3注册与基本使用
  • 4.2.2 不同需求的Qwen3的API使用
  • 4.2.3 在线API的工具调用与简单RAG处理
  • 4.3 本章小结
  • 第5章 RAG与提示词工程
  • 5.1 RAG技术体系
  • 5.1.1 RAG的定义与核心流程
  • 5.1.2 数据处理与分块策略
  • 5.1.3 Rerank机制详解
  • 5.2 问题表示与提示工程
  • 5.2.1 核心原则与最佳实践
  • 5.2.2 提示工程中的思维链详解
  • 5.3 结合RAG与思维链的任务拆解实战
  • 5.3.1 加载思维链的查询处理
  • 5.3.2 思维链的查询处理
  • 5.3.3 结合RAG的思维链任务规划
  • 5.4 本章小结
  • 第6章 Agent架构设计
  • 6.1 智能体技术演进路径
  • 6.1.1 从大模型到自主智能体的能力跃迁
  • 6.1.2 LLM、Workflow与Graph技术路线对比分析
  • 6.1.3 交互范式变革:从工具调用到意图理解
  • 6.2 智能体架构设计
  • 6.2.1 “感知-决策-执行”闭环架构设计
  • 6.2.2 记忆模块与上下文管理机制
  • 6.2.3 工具调用与外部系统集成策略
  • 6.3 本章小结
  • 第7章 多Agent跨境电商智能客服实战
  • 7.1 分层Agent跨境电商智能客服基本架构设计
  • 7.1.1 DTC模式的崛起与智能客服的新要求
  • 7.1.2 跨境电商智能客服架构设计
  • 7.1.3 用于复杂任务分配、解决与汇总的分层Agent架构
  • 7.2 搭建具备商业问答能力的交流客服Agent
  • 7.2.1 基于Qwen3的多语种智能客服基座模型简介
  • 7.2.2 真实客服数据集介绍与使用详解
  • 7.2.3 使用LoRA微调基座模型
  • 7.2.4 使用微调后的智能客服基座模型完成推理
  • 7.2.5 原生Qwen3多语种支持与跨境电商智能客服语言设置
  • 7.3 给交流客服Agent注入垂直领域知识
  • 7.3.1 给客服大模型直接添加知识的方法
  • 7.3.2 更高精度的RAG详解与使用示例
  • 7.3.3 基于BM25算法的RAG实战
  • 7.3.4 基于Embedding向量排序的RAG实战
  • 7.3.5 补充讲解1:智能客服模型垂直领域知识注入
  • 7.3.6 补充讲解2:用Qwen3开展向量计算
  • 7.4 搭建基于Qwen3的调度Agent
  • 7.4.1 使用MCP构建适配智能客服的工具集
  • 7.4.2 基于在线Qwen3的客户意图识别与工具调度Agent
  • 7.5 本章小结
  • 第8章 多智能体协作的原生A2A协议详解
  • 8.1 A2A架构详解
  • 8.1.1 A2A的功能与定义
  • 8.1.2 A2A通信与交互模块详解
  • 8.2 Hello Agent:A2A多智能体交互实战
  • 8.2.1 定义模块组件的实现与查看
  • 8.2.2 服务模块组件的实现与启动
  • 8.2.3 执行模块组件的实现与运行
  • 8.3 本章小结
  • 第9章 MCP与应用详解
  • 9.1 工具调用详解
  • 9.1.1 Python调用工具的基本原理
  • 9.1.2 使用Qwen3演示大模型工具调用方法
  • 9.2 MCP协议详解
  • 9.2.1 MCP功能与架构详解
  • 9.2.2 单机MCP服务端的搭建
  • 9.2.3 单机MCP客户端的搭建与使用
  • 9.3 本章小结
  • 第10章 云上MCP服务的部署与使用
  • 10.1 多种MCP连接协议详解
  • 10.1.1 stdio与SSE传输协议
  • 10.1.2 基于SSE传输协议的MCP服务端
  • 10.1.3 可视化验证基于SSE协议的MCP服务
  • 10.2 局域网MCP服务器的搭建与使用实战
  • 10.2.1 局域网MCP服务端的搭建
  • 10.2.2 局域网MCP客户端连接MCP服务
  • 10.3 基于腾讯云的MCP服务架设与使用
  • 10.3.1 高效便捷的MCP云服务平台
  • 10.3.2 腾讯云MCP服务部署代码的编写
  • 10.3.3 腾讯云端口的开启以及在线MCP服务的验证
  • 10.3.4 腾讯云的持久化服务的开启
  • 10.4 本章小结
  • 第11章 高德地图MCP服务智能调用实战
  • 11.1 MCP验证工具与高德地图剖析
  • 11.1.1 MCP Inspector使用演示
  • 11.1.2 FastMCP用法讲解
  • 11.1.3 高德地图MCP服务剖析与测试
  • 11.2 高德MCP服务的解析与应用重构
  • 11.2.1 基于URL的高德MCP服务的解析
  • 11.2.2 原生高德MCP服务的解析
  • 11.2.3 解析基于高德MCP工具调用的示例
  • 11.3 智能化自定义高德MCP服务实战
  • 11.3.1 在线Qwen3大模型的使用
  • 11.3.2 高德MCP函数工具的解析与格式转换
  • 11.3.3 在线Qwen3的工具格式、函数体与转换函数
  • 11.3.4 结合Qwen3智能化自定义高德MCP应用实战
  • 11.4 本章小结
  • 第12章 构建个性化的arXiv科研论文MCP服务实战
  • 12.1 将arXiv MCP服务拆解为API应用
  • 12.1.1 基础arXiv MCP服务的安装与拆解运行
  • 12.1.2 使用大模型实现辅助工具函数设置
  • 12.1.3 对查询结果的个性化排序处理
  • 12.1.4 适配阅读习惯的可视化操作
  • 12.2 设计个性化的科研论文查询函数设计
  • 12.2.1 FastAPI用法讲解
  • 12.2.2 基于Flow过程的科研论文查询
  • 12.2.3 将查询服务重新包装成API服务
  • 12.3 将arXiv API包装为MCP服务
  • 12.3.1 重构原有的arXiv API服务
  • 12.3.2 将arXiv API重新包装为定制的MCP服务
  • 12.4 本章小结
  • 第13章 基于gradio的云上MCP服务发布
  • 13.1 gradio的基本使用详解
  • 13.1.1 从gradio的Interface开始
  • 13.1.2 gradio输入与输出组件
  • 13.1.3 启动gradio的launch
  • 13.1.4 gradio中多样化的输入/输出组件
  • 13.1.5 gradio中常用的几个组件
  • 13.2 基于gradio的MCP服务
  • 13.2.1 基于gradio本地实现MCP服务程序
  • 13.2.2 基于gradio免费部署云端MCP服务
  • 13.3 本章小结
  • 第14章 基于MCP的旅游规划智能体开发实战
  • 14.1 基础智能体组件
  • 14.1.1 智能体的基本模块
  • 14.1.2 智能体的System Prompt
  • 14.1.3 对MCP服务的加载和处理
  • 14.2 智能体整合与单一MCP实战
  • 14.2.1 完整的智能体整合
  • 14.2.2 智能体整合高德MCP服务实战
  • 14.3 智能体引导的寻味之旅
  • 14.3.1 规划与文件处理MCP详解
  • 14.3.2 飨揽杭城:智能体引导的寻味之旅
  • 14.4 本章小结
  • 第15章 多智能体框架LangGraph与聊天助手实战
  • 15.1 初识LangGraph与工作流搭建
  • 15.1.1 用LangGraph把大象装进冰箱
  • 15.1.2 LangGraph特性与技术原理
  • 15.1.3 LangGraph组件详解
  • 15.1.4 LangGraph中的StateGraph
  • 15.1.5 LangGraph中的节点
  • 15.1.6 LangGraph中的边
  • 15.2 基于LangGraph的聊天助手搭建
  • 15.2.1 LangGraph构建的聊天助手
  • 15.2.2 原生LangGraph接口对Qwen3的调用
  • 15.2.3 一般智能体运行范式详解
  • 15.2.4 基于LangGraph与Qwen3完成聊天助手
  • 15.2.5 进阶智能体构建
  • 15.3 本章小结
  • 第16章 基于LangGraph的高品质住宅投研智能体开发实战
  • 16.1 搭建投研助手必备的知识维度
  • 16.1.1 负公摊深析:解构高品质住宅的价值基底
  • 16.1.2 搭建全域知识架构的投研认知体系
  • 16.1.3 智居范式跃迁:重构技术驱动的居住品质生态
  • 16.2 基于Qwen3的高品质住宅投研助手实战
  • 16.2.1 智能体流程功能的定义
  • 16.2.2 智能体流程角色的设定
  • 16.2.3 投研智能体不同角色的组合与实现
  • 16.2.4 完整投研智能体的搭建与运行
  • 16.2.5 在腾讯云上部署高品质住宅投研助手
  • 16.3 本章小结
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

清华大学出版社

清华大学出版社成立于1980年6月,是由教育部主管、清华大学主办的综合出版单位。植根于“清华”这座久负盛名的高等学府,秉承清华人“自强不息,厚德载物”的人文精神,清华大学出版社在短短二十多年的时间里,迅速成长起来。清华大学出版社始终坚持弘扬科技文化产业、服务科教兴国战略的出版方向,把出版高等学校教学用书和科技图书作为主要任务,并为促进学术交流、繁荣出版事业设立了多项出版基金,逐渐形成了以出版高水平的教材和学术专著为主的鲜明特色,在教育出版领域树立了强势品牌。