展开全部

主编推荐语

图解深度学习数学基础。

内容简介

本书是以TensorFlow 为工具介绍神经网络和深度学习的入门书,内容循序渐进,以简单示例和图例的形式,展示神经网络和深度学习背后的数学基础原理,帮助读者更好地理解复杂抽象的公式。同时,采用手动计算和程序代码这两种方式讲解示例,可以更好地帮助读者理解TensorFlow的常用函数接口,为读者掌握利用TensorFlow搭建人工智能项目打下良好的基础。

目录

  • 版权信息
  • 前言
  • 1 深度学习及TensorFlow简介
  • 1.1 深度学习
  • 1.2 TensorFlow简介及安装
  • 2 基本的数据结构及运算
  • 2.1 张量
  • 2.1.1 张量的定义
  • 2.1.2 Tensor与Numpy的ndarray转换
  • 2.1.3 张量的尺寸
  • 2.1.4 图像转换为张量
  • 2.2 随机数
  • 2.2.1 均匀(平均)分布随机数
  • 2.2.2 正态(高斯)分布随机数
  • 2.3 单个张量的运算
  • 2.3.1 改变张量的数据类型
  • 2.3.2 访问张量中某一个区域的值
  • 2.3.3 转置
  • 2.3.4 改变形状
  • 2.3.5 归约运算:求和、平均值、最大(小)值
  • 2.3.6 最大(小)值的位置索引
  • 2.4 多个张量之间的运算
  • 2.4.1 基本运算:加、减、乘、除
  • 2.4.2 乘法
  • 2.4.3 张量的连接
  • 2.4.4 张量的堆叠
  • 2.4.5 张量的对比
  • 2.5 占位符
  • 2.6 Variable对象
  • 3 梯度及梯度下降法
  • 3.1 梯度
  • 3.2 导数计算的链式法则
  • 3.2.1 多个函数和的导数
  • 3.2.2 复合函数的导数
  • 3.2.3 单变量函数的驻点、极值点、鞍点
  • 3.2.4 多变量函数的驻点、极值点、鞍点
  • 3.2.5 函数的泰勒级数展开
  • 3.2.6 梯度下降法
  • 3.3 梯度下降法
  • 3.3.1 Adagrad法
  • 3.3.2 Momentum法
  • 3.3.3 NAG法
  • 3.3.4 RMSprop法
  • 3.3.5 具备动量的RMSprop法
  • 3.3.6 Adadelta法
  • 3.3.7 Adam法
  • 3.3.8 Batch梯度下降
  • 3.3.9 随机梯度下降
  • 3.3.10 mini-Batch梯度下降
  • 4 回归分析
  • 4.1 线性回归分析
  • 4.1.1 一元线性回归
  • 4.1.2 保存和加载回归模型
  • 4.1.3 多元线性回归
  • 4.2 非线性回归分析
  • 5 全连接神经网络
  • 5.1 基本概念
  • 5.2 计算步骤
  • 5.3 神经网络的矩阵表达
  • 5.4 激活函数
  • 5.4.1 sigmoid激活函数
  • 5.4.2 tanh激活函数
  • 5.4.3 ReLU激活函数
  • 5.4.4 leaky relu激活函数
  • 5.4.5 elu激活函数
  • 5.4.6 crelu激活函数
  • 5.4.7 selu激活函数
  • 5.4.8 relu6激活函数
  • 5.4.9 softplus激活函数
  • 5.4.10 softsign激活函数
  • 6 神经网络处理分类问题
  • 6.1 TFRecord文件
  • 6.1.1 将ndarray写入TFRecord文件
  • 6.1.2 从TFRecord解析数据
  • 6.2 建立分类问题的数学模型
  • 6.2.1 数据类别(标签)
  • 6.2.2 图像与TFRecrder
  • 6.2.3 建立模型
  • 6.3 损失函数与训练模型
  • 6.3.1 sigmoid损失函数
  • 6.3.2 softmax损失函数
  • 6.3.3 训练和评估模型
  • 6.4 全连接神经网络的梯度反向传播
  • 6.4.1 数学原理及示例
  • 6.4.2 梯度消失
  • 7 一维离散卷积
  • 7.1 一维离散卷积的计算原理
  • 7.1.1 full卷积
  • 7.1.2 valid卷积
  • 7.1.3 same卷积
  • 7.1.4 full、same、valid卷积的关系
  • 7.2 一维卷积定理
  • 7.2.1 一维离散傅里叶变换
  • 7.2.2 卷积定理
  • 7.3 具备深度的一维离散卷积
  • 7.3.1 具备深度的张量与卷积核的卷积
  • 7.3.2 具备深度的张量分别与多个卷积核的卷积
  • 7.3.3 多个具备深度的张量分别与多个卷积核的卷积
  • 8 二维离散卷积
  • 8.1 二维离散卷积的计算原理
  • 8.1.1 full卷积
  • 8.1.2 same卷积
  • 8.1.3 valid卷积
  • 8.1.4 full、same、valid卷积的关系
  • 8.1.5 卷积结果的输出尺寸
  • 8.2 离散卷积的性质
  • 8.2.1 可分离的卷积核
  • 8.2.2 full和same卷积的性质
  • 8.2.3 快速计算卷积
  • 8.3 二维卷积定理
  • 8.3.1 二维离散傅里叶变换
  • 8.3.2 二维与一维傅里叶变换的关系
  • 8.3.3 卷积定理
  • 8.3.4 利用卷积定理快速计算卷积
  • 8.4 多深度的离散卷积
  • 8.4.1 基本的多深度卷积
  • 8.4.2 1个张量与多个卷积核的卷积
  • 8.4.3 多个张量分别与多个卷积核的卷积
  • 8.4.4 在每一深度上分别卷积
  • 8.4.5 单个张量与多个卷积核在深度上分别卷积
  • 8.4.6 分离卷积
  • 9 池化操作
  • 9.1 same池化
  • 9.1.1 same最大值池化
  • 9.1.2 多深度张量的same池化
  • 9.1.3 多个三维张量的same最大值池化
  • 9.1.4 same平均值池化
  • 9.2 valid池化
  • 9.2.1 多深度张量的vaild池化
  • 9.2.2 多个三维张量的valid池化
  • 10 卷积神经网络
  • 10.1 浅层卷积神经网络
  • 10.2 LeNet
  • 10.3 AlexNet
  • 10.3.1 AlexNet网络结构详解
  • 10.3.2 dropout及其梯度下降
  • 10.4 VGGNet
  • 10.5 GoogleNet
  • 10.5.1 网中网结构
  • 10.5.2 Batch Normalization
  • 10.5.3 BN与卷积运算的关系
  • 10.5.4 指数移动平均
  • 10.5.5 带有BN操作的卷积神经网络
  • 10.6 ResNet
  • 11 卷积的梯度反向传播
  • 11.1 valid卷积的梯度
  • 11.1.1 已知卷积核,对未知张量求导
  • 11.1.2 已知输入张量,对未知卷积核求导
  • 11.2 same卷积的梯度
  • 11.2.1 已知卷积核,对输入张量求导
  • 11.2.2 已知输入张量,对未知卷积核求导
  • 12 池化操作的梯度
  • 12.1 平均值池化的梯度
  • 12.2 最大值池化的梯度
  • 13 BN的梯度反向传播
  • 13.1 BN操作与卷积的关系
  • 13.2 示例详解
  • 14 TensorFlow搭建神经网络的主要函数
展开全部

评分及书评

评分不足
1个评分

出版方

电子工业出版社

电子工业出版社成立于1982年10月,是国务院独资、工信部直属的中央级科技与教育出版社,是专业的信息技术知识集成和服务提供商。经过三十多年的建设与发展,已成为一家以科技和教育出版、期刊、网络、行业支撑服务、数字出版、软件研发、软科学研究、职业培训和教育为核心业务的现代知识服务集团。出版物内容涵盖了电子信息技术的各个分支及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。