人工智能
类型
可以朗读
语音朗读
223千字
字数
2025-12-01
发行日期
展开全部
主编推荐语
本书从发展概述、核心技术原理与产业实践的角度深入解析大模型系统。
内容简介
全书共9章。第1章首先对大模型技术进行概述,系统梳理其概念、发展里程碑及未来趋势。第2章转入产业视角,深入剖析竞争格局、商业策略与产业落地面临的挑战。
第3~5章介绍大模型系统的技术实现,从监督学习、迁移学习等方法入手,逐步深入文本标记化、编码器-解码器架构与从RNN/LSTM到Transformer的革新,再介绍缩放定律、数据/算力/参数等预训练要素,以及指令微调、基于人类反馈的强化学习对齐机制。
第6~9章从产业实践的角度解析应用层技术,包括上下文学习、检索增强生成等提示工程方法,深入剖析以思维链为代表的符号推理,以及从工作记忆、长期记忆到认知架构的语言智能体体系的构建。
目录
- 版权信息
- 内容提要
- 推荐语
- 前 言
- 资源与支持
- 第1章 大模型技术概述
- 1.1 大模型相关概念辨析
- 1.1.1 基础模型
- 1.1.2 GenAI模型
- 1.1.3 LLM
- 1.1.4 大模型
- 1.2 大模型技术发展历程
- 1.2.1 技术发展的阶段
- 1.2.2 技术发展的驱动力
- 1.2.3 当前挑战与未来发展方向
- 1.3 大模型系统发展路径
- 1.3.1 基础语言理解与生成
- 1.3.2 工具赋能的增强智能
- 1.3.3 自主思考的深入探索
- 1.3.4 连接物理世界的具身智能
- 第2章 大模型产业发展概述
- 2.1 大模型产业发展回顾
- 2.1.1 Transformer架构诞生
- 2.1.2 商业模式探索
- 2.1.3 ChatGPT与生态竞赛
- 2.1.4 “百家争鸣”时代
- 2.2 商业化核心战略
- 2.2.1 构建可持续的商业闭环
- 2.2.2 平民化
- 2.2.3 专业化
- 2.2.4 具身化
- 2.3 产业落地模式
- 2.3.1 场景创新
- 2.3.2 工具创新
- 2.3.3 方法创新
- 2.3.4 评估大模型带来的创新价值
- 2.4 产业竞争格局与挑战
- 2.4.1 领跑者的技术透明化挑战
- 2.4.2 后发者的市场局限
- 2.4.3 创业公司的生存压力
- 第3章 模型预训练技术基础
- 3.1 监督学习
- 3.1.1 监督学习的定义
- 3.1.2 监督学习的统计建模
- 3.1.3 监督学习的统计前提
- 3.1.4 监督学习中模型结构的选择
- 3.1.5 监督学习中模型的泛化机制
- 3.1.6 案例分析:从实验观测数据发现牛顿第二定律
- 3.2 深度学习
- 3.2.1 层次结构与函数表达能力
- 3.2.2 网络训练机制
- 3.2.3 DNN的过拟合风险与压缩张力
- 3.2.4 DNN压缩机制
- 3.2.5 DNN的结构化能力
- 3.3 表示学习
- 3.3.1 表示学习的基本思想
- 3.3.2 CNN与层次化空间表示
- 3.3.3 残差网络
- 3.4 迁移学习
- 3.4.1 概念引入:从已见分布到未知分布
- 3.4.2 迁移学习的基本策略:冻结还是微调
- 3.4.3 ResNet与ImageNet
- 3.4.4 迁移学习的流程
- 3.4.5 实践案例:ResNet-152羊驼五分类微调
- 3.4.6 迁移学习的范式转变
- 第4章 预训练语言模型基础
- 4.1 标记化
- 4.1.1 记号
- 4.1.2 词汇表
- 4.1.3 未登录词
- 4.1.4 标记化策略
- 4.1.5 编码与解码
- 4.2 编码器-解码器架构
- 4.2.1 编码器-解码器架构概念
- 4.2.2 隐层语义空间
- 4.2.3 通用性和模块化
- 4.3 自监督学习
- 4.3.1 自监督学习的借口任务
- 4.3.2 CLM
- 4.4 RNN
- 4.4.1 RNN基础与工作原理
- 4.4.2 RNN编码器
- 4.4.3 RNN解码器
- 4.4.4 强制教学与计划采样
- 4.4.5 LSTM与门控结构记忆
- 4.4.6 注意力机制
- 4.5 Transformer与并行检索
- 4.5.1 从循环依赖到并行计算
- 4.5.2 自注意力机制
- 4.5.3 位置编码机制
- 4.5.4 多头注意力机制
- 4.5.5 标准的Transformer层结构
- 4.5.6 自监督的预训练范式
- 第5章 LLM基础
- 5.1 预训练阶段
- 5.1.1 缩放定律
- 5.1.2 数据
- 5.1.3 算力
- 5.1.4 参数规模
- 5.2 后训练阶段
- 5.2.1 分类头微调
- 5.2.2 指令微调
- 5.2.3 环境价值体系对齐
- 5.2.4 RLHF的滚雪球式自举对齐
- 第6章 提示工程方法
- 6.1 上下文学习原理机制
- 6.1.1 测试时模型的生成行为控制问题
- 6.1.2 少样本提示与新任务学习机制
- 6.1.3 零样本提示的能力
- 6.2 RAG的知识迁移机制
- 6.2.1 建立检索模块的“语义可比性”基础
- 6.2.2 检索模块中的效率与精度权衡
- 6.2.3 面向生成质量的新排序器训练范式
- 6.2.4 将外部知识注入模型上下文
- 6.3 AI搜索
- 6.3.1 从信息检索到任务执行的范式跃迁
- 6.3.2 结构化知识索引机制
- 6.3.3 工具环境中的检索机制
- 6.3.4 用户偏好环境中的召回机制
- 6.3.5 多通道融合机制
- 6.3.6 搜索型系统的演化趋势:从检索接口到语义代理
- 第7章 符号推理方法
- 7.1 状态空间
- 7.1.1 状态空间的构造
- 7.1.2 推理的本质
- 7.1.3 默认搜索机制的局限
- 7.2 路径深度与推理能力
- 7.2.1 输出长度作为“行动预算”
- 7.2.2 CoT提示
- 7.3 自一致性机制
- 7.3.1 以路径多样性提升推理鲁棒性
- 7.3.2 搜索策略的演进
- 7.4 ToT:构建显式的结构化搜索范式
- 7.4.1 DFS的结构性瓶颈
- 7.4.2 早期结构化尝试
- 7.4.3 ToT的核心
- 7.4.4 ToT应用
- 7.5 语言作为控制器
- 7.5.1 显式提示驱动
- 7.5.2 交互式引导
- 7.5.3 策略的内化
- 7.5.4 策略的涌现:超越模仿,迈向自组织的复杂搜索行为
- 第8章 语言智能体的构建
- 8.1 工作记忆
- 8.1.1 将LLM的生成过程重新诠释为策略函数
- 8.1.2 构建智能体的动态认知
- 8.1.3 ReAct框架
- 8.2 长期记忆
- 8.2.1 ReAct框架的局限与突破
- 8.2.2 长期记忆的运作机制
- 8.2.3 长期记忆的架构与流程
- 8.3 语言智能体的本质
- 8.3.1 先验知识体系
- 8.3.2 环境交互机制
- 8.3.3 先验与反馈的协同进化
- 第9章 智能体的认知架构
- 9.1 认知架构总览
- 9.1.1 认知架构的核心设计原则
- 9.1.2 SOAR认知架构
- 9.1.3 CoALA
- 9.2 情节记忆
- 9.2.1 在线层-近线层-离线层3层架构
- 9.2.2 在线写入
- 9.2.3 近线处理
- 9.2.4 离线反思
- 9.2.5 在线检索
- 9.3 程序记忆
- 9.3.1 认知过程的规则与调度
- 9.3.2 规则的固化与执行
- 9.3.3 程序记忆的整合与治理
- 9.4 行动规划
- 9.4.1 行动策略的演进
- 9.4.2 规划的生成
- 9.4.3 流水线架构
- 9.4.4 应用案例分析:博弈场景的“博弈树”优化
- 9.5 交互协议MCP
- 9.5.1 MCP
- 9.5.2 工具的使用模式
- 9.5.3 工具的动态生成
- 9.5.4 工具生态的治理
- 9.5.5 可信赖自主交互的顶层设计
展开全部
出版方
人民邮电出版社
人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。
