展开全部

主编推荐语

20余年研发经验资深专家,带领你快速进入深度学习的世界。

内容简介

本书是一本能指导读者快速掌握TensorFlow和深度学习的著作,从TensorFlow的原理到应用,从深度学习到强化学习,本书提供了全栈解决方案。

目录

  • 版权信息
  • 第2版前言
  • 第1版前言
  • 第一部分 TensorFlow基础
  • 第1章 NumPy基础
  • 1.1 把图像数字化
  • 1.1.1 数组属性
  • 1.1.2 从已有数据中生成数组
  • 1.1.3 利用random模块生成数组
  • 1.1.4 利用arange、linspace函数生成数组
  • 1.2 存取元素
  • 1.3 NumPy的算术运算
  • 1.3.1 对应元素相乘
  • 1.3.2 点积运算
  • 1.4 数据变形
  • 1.4.1 更改数组的形状
  • 1.4.2 合并数组
  • 1.5 通用函数
  • 1.6 广播机制
  • 1.7 用NumPy实现回归实例
  • 1.8 小结
  • 第2章 TensorFlow基础知识
  • 2.1 安装配置
  • 2.1.1 安装Anaconda
  • 2.1.2 安装TensorFlow CPU版
  • 2.1.3 安装TensorFlow GPU版
  • 2.2 层次架构
  • 2.3 张量
  • 2.3.1 张量的基本属性
  • 2.3.2 张量切片
  • 2.3.3 操作形状
  • 2.4 变量
  • 2.5 NumPy与tf.Tensor比较
  • 2.6 计算图
  • 2.6.1 静态计算图
  • 2.6.2 动态计算图
  • 2.7 自动图
  • 2.8 自动微分
  • 2.9 损失函数
  • 2.10 优化器
  • 2.11 使用TensorFlow 2.0实现回归实例
  • 2.12 GPU加速
  • 2.13 小结
  • 第3章 TensorFlow构建模型的方法
  • 3.1 利用低阶API构建模型
  • 3.1.1 项目背景
  • 3.1.2 导入数据
  • 3.1.3 预处理数据
  • 3.1.4 构建模型
  • 3.1.5 训练模型
  • 3.1.6 测试模型
  • 3.1.7 保存恢复模型
  • 3.2 利用中阶API构建模型
  • 3.2.1 构建模型
  • 3.2.2 创建损失评估函数
  • 3.2.3 训练模型
  • 3.3 利用高阶API构建模型
  • 3.3.1 构建模型
  • 3.3.2 编译及训练模型
  • 3.3.3 测试模型
  • 3.3.4 保存恢复模型
  • 3.4 小结
  • 第4章 TensorFlow数据处理
  • 4.1 tf.data简介
  • 4.2 构建数据集的常用方法
  • 4.2.1 从内存中读取数据
  • 4.2.2 从文本中读取数据
  • 4.2.3 读取TFRecord格式文件
  • 4.3 如何生成自己的TFRecord格式数据
  • 4.3.1 把数据转换为TFRecord格式的一般步骤
  • 4.3.2 加载TFRecord文件流程
  • 4.3.3 代码实现
  • 4.4 数据增强方法
  • 4.4.1 常用的数据增强方法
  • 4.4.2 创建数据处理流水线
  • 4.5 小结
  • 第5章 可视化
  • 5.1 matplotlib
  • 5.1.1 matplotlib的基本概念
  • 5.1.2 使用matplotlib绘制图表
  • 5.1.3 使用rcParams
  • 5.2 pyecharts
  • 5.2.1 pyecharts的安装
  • 5.2.2 使用pyecharts绘制图表
  • 5.3 TensorBoard
  • 5.4 小结
  • 第二部分 深度学习基础
  • 第6章 机器学习基础
  • 6.1 机器学习的一般流程
  • 6.1.1 明确目标
  • 6.1.2 收集数据
  • 6.1.3 数据探索与预处理
  • 6.1.4 模型选择
  • 6.1.5 模型评估
  • 6.2 监督学习
  • 6.2.1 线性回归
  • 6.2.2 逻辑回归
  • 6.2.3 树回归
  • 6.2.4 支持向量机
  • 6.2.5 朴素贝叶斯分类器
  • 6.2.6 集成学习
  • 6.3 无监督学习
  • 6.3.1 主成分分析
  • 6.3.2 k均值算法
  • 6.4 数据预处理
  • 6.4.1 处理缺失值
  • 6.4.2 处理分类数据
  • 6.5 机器学习实例
  • 6.6 小结
  • 第7章 神经网络基础
  • 7.1 单层神经网络
  • 7.2 多层神经网络
  • 7.2.1 多层神经网络的结构
  • 7.2.2 各层之间的信息传输
  • 7.2.3 使用多层神经网络解决XOR问题
  • 7.2.4 使用TensorFlow解决XOR问题
  • 7.3 激活函数
  • 7.3.1 sigmoid函数
  • 7.3.2 softmax函数
  • 7.3.3 tanh函数
  • 7.3.4 ReLU函数
  • 7.3.5 Leaky-ReLU函数
  • 7.3.6 softplus函数
  • 7.3.7 Dropout函数
  • 7.4 正向和反向传播算法
  • 7.4.1 单个神经元的BP算法
  • 7.4.2 多层神经网络的BP算法
  • 7.5 解决过拟合问题
  • 7.5.1 权重正则化
  • 7.5.2 Dropout正则化
  • 7.5.3 批量正则化
  • 7.5.4 权重初始化
  • 7.5.5 残差网络
  • 7.6 选择优化算法
  • 7.6.1 传统梯度更新算法
  • 7.6.2 动量算法
  • 7.6.3 NAG算法
  • 7.6.4 AdaGrad算法
  • 7.6.5 RMSProp算法
  • 7.6.6 Adam算法
  • 7.6.7 如何选择优化算法
  • 7.7 使用tf.keras构建神经网络
  • 7.7.1 tf.keras概述
  • 7.7.2 tf.keras的常用模块
  • 7.7.3 构建模型的几种方法
  • 7.7.4 使用Sequential API构建神经网络实例
  • 7.7.5 使用Functional API构建神经网络实例
  • 7.7.6 使用Subclassing API构建神经网络实例
  • 7.8 小结
  • 第8章 视觉处理基础
  • 8.1 从全连接层到卷积层
  • 8.1.1 图像的两个特性
  • 8.1.2 卷积神经网络概述
  • 8.2 卷积层
  • 8.2.1 卷积核
  • 8.2.2 步幅
  • 8.2.3 填充
  • 8.2.4 多通道上的卷积
  • 8.2.5 激活函数
  • 8.2.6 卷积函数
  • 8.2.7 转置卷积
  • 8.2.8 特征图与感受野
  • 8.2.9 全卷积网络
  • 8.3 池化层
  • 8.3.1 局部池化
  • 8.3.2 全局池化
  • 8.4 现代经典网络
  • 8.4.1 LeNet-5模型
  • 8.4.2 AlexNet模型
  • 8.4.3 VGG模型
  • 8.4.4 GoogLeNet模型
  • 8.4.5 ResNet模型
  • 8.4.6 DenseNet模型
  • 8.5 卷积神经网络分类实例
  • 8.5.1 使用Subclassing API构建网络
  • 8.5.2 卷积神经网络分类实例的主要步骤
  • 8.5.3 通过数据增强提升性能
  • 8.5.4 通过现代网络架构提升网络性能
  • 8.6 小结
  • 第9章 自然语言处理基础
  • 9.1 从语言模型到循环神经网络
  • 9.1.1 链式法则
  • 9.1.2 马尔可夫假设与N元语法模型
  • 9.1.3 从N元语法模型到隐含状态表示
  • 9.1.4 从神经网络到有隐含状态的循环神经网络
  • 9.1.5 使用循环神经网络构建语言模型
  • 9.1.6 多层循环神经网络
  • 9.2 正向传播与随时间反向传播
  • 9.3 现代循环神经网络
  • 9.3.1 LSTM
  • 9.3.2 GRU
  • 9.3.3 Bi-RNN
  • 9.4 几种特殊架构
  • 9.4.1 编码器-解码器架构
  • 9.4.2 Seq2Seq架构
  • 9.5 循环神经网络的应用场景
  • 9.6 循环神经网络实践
  • 9.6.1 使用LSTM实现文本分类
  • 9.6.2 把CNN和RNN组合在一起
  • 9.7 小结
  • 第10章 注意力机制
  • 10.1 注意力机制概述
  • 10.1.1 两种常见注意力机制
  • 10.1.2 来自生活的注意力
  • 10.1.3 注意力机制的本质
  • 10.2 带注意力机制的编码器-解码器架构
  • 10.2.1 引入注意力机制
  • 10.2.2 计算注意力分配值
  • 10.3 可视化Transformer架构
  • 10.3.1 Transformer的顶层设计
  • 10.3.2 编码器与解码器的输入
  • 10.3.3 自注意力
  • 10.3.4 多头注意力
  • 10.3.5 自注意力与卷积神经网络、循环神经网络的异同
  • 10.3.6 为加深Transformer网络层保驾护航的几种方法
  • 10.3.7 如何进行自监督学习
  • 10.3.8 Transformer在视觉领域的应用
  • 10.4 使用TensorFlow实现Transformer
  • 10.4.1 Transformer架构图
  • 10.4.2 架构说明
  • 10.4.3 构建缩放的点积注意力模块
  • 10.4.4 构建多头注意力模块
  • 10.4.5 构建前馈神经网络模块
  • 10.4.6 构建EncoderLayer模块
  • 10.4.7 构建Encoder模块
  • 10.4.8 构建DecoderLayer模块
  • 10.4.9 构建Decoder模块
  • 10.4.10 构建Transformer模型
  • 10.4.11 定义掩码函数
  • 10.5 小结
  • 第11章 目标检测
  • 11.1 目标检测及主要挑战
  • 11.1.1 边界框的表示
  • 11.1.2 手工标注图像的真实值
  • 11.1.3 主要挑战
  • 11.1.4 选择性搜索
  • 11.1.5 锚框
  • 11.1.6 RPN算法
  • 11.2 优化候选框的算法
  • 11.2.1 交并比
  • 11.2.2 非极大值抑制
  • 11.2.3 边框回归
  • 11.2.4 使候选框输出为固定大小
  • 11.3 典型的目标检测算法
  • 11.3.1 R-CNN
  • 11.3.2 Fast R-CNN
  • 11.3.3 Faster R-CNN
  • 11.3.4 Mask R-CNN
  • 11.3.5 YOLO
  • 11.3.6 Swin Transformer
  • 11.3.7 各种算法的性能比较
  • 11.4 小结
  • 第12章 生成式深度学习
  • 12.1 用变分自编码器生成图像
  • 12.1.1 自编码器
  • 12.1.2 变分自编码器
  • 12.1.3 用变分自编码器生成图像实例
  • 12.2 GAN简介
  • 12.2.1 GAN的架构
  • 12.2.2 GAN的损失函数
  • 12.3 用GAN生成图像
  • 12.3.1 判别器
  • 12.3.2 生成器
  • 12.3.3 训练模型
  • 12.3.4 可视化结果
  • 12.4 VAE与GAN的异同
  • 12.5 CGAN
  • 12.5.1 CGAN的架构
  • 12.5.2 CGAN判别器
  • 12.5.3 CGAN生成器
  • 12.5.4 训练模型
  • 12.5.5 动态查看指定标签的图像
  • 12.6 提升GAN训练效果的一些技巧
  • 12.7 小结
  • 第三部分 深度学习实践
  • 第13章 实战生成式模型
  • 13.1 Deep Dream模型
  • 13.1.1 Deep Dream的原理
  • 13.1.2 Deep Dream算法的流程
  • 13.1.3 使用TensorFlow实现Deep Dream
  • 13.2 风格迁移
  • 13.2.1 内容损失
  • 13.2.2 风格损失
  • 13.2.3 训练模型
  • 13.3 小结
  • 第14章 目标检测实例
  • 14.1 数据集简介
  • 14.2 准备数据
  • 14.3 训练模型
  • 14.4 测试模型
  • 14.5 小结
  • 第15章 人脸检测与识别实例
  • 15.1 人脸识别简介
  • 15.2 项目概况
  • 15.3 项目详细实施步骤
  • 15.3.1 图像预处理
  • 15.3.2 构建模型
  • 15.3.3 测试模型
  • 15.4 小结
  • 第16章 文本检测与识别实例
  • 16.1 项目架构说明
  • 16.2 项目实施步骤
  • 16.2.1 手工生成训练数据
  • 16.2.2 数据预处理
  • 16.2.3 构建模型
  • 16.2.4 训练模型
  • 16.3 小结
  • 第17章 基于Transformer的对话实例
  • 17.1 数据预处理
  • 17.2 构建注意力模块
  • 17.3 构建Transformer架构
  • 17.4 定义损失函数
  • 17.5 初始化并编译模型
  • 17.6 测试评估模型
  • 17.7 小结
  • 第18章 基于Transformer的图像处理实例
  • 18.1 导入数据
  • 18.2 预处理数据
  • 18.3 构建模型
  • 18.4 编译、训练模型
  • 18.5 可视化运行结果
  • 18.6 小结
  • 第四部分 强化学习
  • 第19章 强化学习基础
  • 19.1 强化学习基础概述
  • 19.1.1 智能体与环境的交互
  • 19.1.2 回报
  • 19.1.3 马尔可夫决策过程
  • 19.1.4 贝尔曼方程
  • 19.1.5 贝尔曼最优方程
  • 19.1.6 同步策略与异步策略
  • 19.1.7 有模型训练与无模型训练
  • 19.2 时序差分算法
  • 19.3 Q-Learning算法
  • 19.3.1 Q-Learning算法的主要流程
  • 19.3.2 Q函数
  • 19.3.3 贪婪策略
  • 19.4 SARSA算法
  • 19.5 DQN算法
  • 19.5.1 Q-Learning算法的局限性
  • 19.5.2 用深度学习处理强化学习时需要解决的问题
  • 19.5.3 用DQN解决问题的方法
  • 19.5.4 定义损失函数
  • 19.5.5 DQN的经验回放机制
  • 19.5.6 目标网络
  • 19.5.7 网络模型
  • 19.5.8 DQN算法的实现
  • 19.6 小结
  • 第20章 强化学习实践
  • 20.1 Q-Learning算法实例
  • 20.2 SARSA算法实例
  • 20.2.1 游戏场景
  • 20.2.2 核心代码说明
  • 20.3 用TensorFlow实现DQN算法
  • 20.4 小结
  • 附录A TensorFlow-GPU 2+升级安装配置
  • A.1 环境分析
  • A.2 参考资料
  • A.3 安装的准备工作
  • A.4 升级GPU驱动
  • A.5 安装Python 3.8
  • A.6 安装TensorFlow-GPU 2+
  • A.6.1 用conda安装
  • A.6.2 用pip安装
  • A.7 Jupyter Notebook的配置
  • A.8 安装验证
  • 附录B 从TensorFlow1.x升级到TensorFlow 2.x
  • B.1 TensorFlow1.x和TensorFlow 2.x的区别
  • B.2 最快速的转换方法
  • B.3 自动转换脚本
  • B.4 用动态图替换静态图
  • B.5 升级示例
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

机械工业出版社

机械工业出版社是全国优秀出版社,自1952年成立以来,坚持为科技、为教育服务,以向行业、向学校提供优质、权威的精神产品为宗旨,以“服务社会和人民群众需求,传播社会主义先进文化”为己任,产业结构不断完善,已由传统的图书出版向着图书、期刊、电子出版物、音像制品、电子商务一体化延伸,现已发展为多领域、多学科的大型综合性出版社,涉及机械、电工电子、汽车、计算机、经济管理、建筑、ELT、科普以及教材、教辅等领域。