计算机
类型
可以朗读
语音朗读
147千字
字数
2018-10-01
发行日期
展开全部
主编推荐语
图解深度学习数学基础。
内容简介
本书是以TensorFlow 为工具介绍神经网络和深度学习的入门书,内容循序渐进,以简单示例和图例的形式,展示神经网络和深度学习背后的数学基础原理,帮助读者更好地理解复杂抽象的公式。同时,采用手动计算和程序代码这两种方式讲解示例,可以更好地帮助读者理解TensorFlow的常用函数接口,为读者掌握利用TensorFlow搭建人工智能项目打下良好的基础。
目录
- 版权信息
- 前言
- 1 深度学习及TensorFlow简介
- 1.1 深度学习
- 1.2 TensorFlow简介及安装
- 2 基本的数据结构及运算
- 2.1 张量
- 2.1.1 张量的定义
- 2.1.2 Tensor与Numpy的ndarray转换
- 2.1.3 张量的尺寸
- 2.1.4 图像转换为张量
- 2.2 随机数
- 2.2.1 均匀(平均)分布随机数
- 2.2.2 正态(高斯)分布随机数
- 2.3 单个张量的运算
- 2.3.1 改变张量的数据类型
- 2.3.2 访问张量中某一个区域的值
- 2.3.3 转置
- 2.3.4 改变形状
- 2.3.5 归约运算:求和、平均值、最大(小)值
- 2.3.6 最大(小)值的位置索引
- 2.4 多个张量之间的运算
- 2.4.1 基本运算:加、减、乘、除
- 2.4.2 乘法
- 2.4.3 张量的连接
- 2.4.4 张量的堆叠
- 2.4.5 张量的对比
- 2.5 占位符
- 2.6 Variable对象
- 3 梯度及梯度下降法
- 3.1 梯度
- 3.2 导数计算的链式法则
- 3.2.1 多个函数和的导数
- 3.2.2 复合函数的导数
- 3.2.3 单变量函数的驻点、极值点、鞍点
- 3.2.4 多变量函数的驻点、极值点、鞍点
- 3.2.5 函数的泰勒级数展开
- 3.2.6 梯度下降法
- 3.3 梯度下降法
- 3.3.1 Adagrad法
- 3.3.2 Momentum法
- 3.3.3 NAG法
- 3.3.4 RMSprop法
- 3.3.5 具备动量的RMSprop法
- 3.3.6 Adadelta法
- 3.3.7 Adam法
- 3.3.8 Batch梯度下降
- 3.3.9 随机梯度下降
- 3.3.10 mini-Batch梯度下降
- 4 回归分析
- 4.1 线性回归分析
- 4.1.1 一元线性回归
- 4.1.2 保存和加载回归模型
- 4.1.3 多元线性回归
- 4.2 非线性回归分析
- 5 全连接神经网络
- 5.1 基本概念
- 5.2 计算步骤
- 5.3 神经网络的矩阵表达
- 5.4 激活函数
- 5.4.1 sigmoid激活函数
- 5.4.2 tanh激活函数
- 5.4.3 ReLU激活函数
- 5.4.4 leaky relu激活函数
- 5.4.5 elu激活函数
- 5.4.6 crelu激活函数
- 5.4.7 selu激活函数
- 5.4.8 relu6激活函数
- 5.4.9 softplus激活函数
- 5.4.10 softsign激活函数
- 6 神经网络处理分类问题
- 6.1 TFRecord文件
- 6.1.1 将ndarray写入TFRecord文件
- 6.1.2 从TFRecord解析数据
- 6.2 建立分类问题的数学模型
- 6.2.1 数据类别(标签)
- 6.2.2 图像与TFRecrder
- 6.2.3 建立模型
- 6.3 损失函数与训练模型
- 6.3.1 sigmoid损失函数
- 6.3.2 softmax损失函数
- 6.3.3 训练和评估模型
- 6.4 全连接神经网络的梯度反向传播
- 6.4.1 数学原理及示例
- 6.4.2 梯度消失
- 7 一维离散卷积
- 7.1 一维离散卷积的计算原理
- 7.1.1 full卷积
- 7.1.2 valid卷积
- 7.1.3 same卷积
- 7.1.4 full、same、valid卷积的关系
- 7.2 一维卷积定理
- 7.2.1 一维离散傅里叶变换
- 7.2.2 卷积定理
- 7.3 具备深度的一维离散卷积
- 7.3.1 具备深度的张量与卷积核的卷积
- 7.3.2 具备深度的张量分别与多个卷积核的卷积
- 7.3.3 多个具备深度的张量分别与多个卷积核的卷积
- 8 二维离散卷积
- 8.1 二维离散卷积的计算原理
- 8.1.1 full卷积
- 8.1.2 same卷积
- 8.1.3 valid卷积
- 8.1.4 full、same、valid卷积的关系
- 8.1.5 卷积结果的输出尺寸
- 8.2 离散卷积的性质
- 8.2.1 可分离的卷积核
- 8.2.2 full和same卷积的性质
- 8.2.3 快速计算卷积
- 8.3 二维卷积定理
- 8.3.1 二维离散傅里叶变换
- 8.3.2 二维与一维傅里叶变换的关系
- 8.3.3 卷积定理
- 8.3.4 利用卷积定理快速计算卷积
- 8.4 多深度的离散卷积
- 8.4.1 基本的多深度卷积
- 8.4.2 1个张量与多个卷积核的卷积
- 8.4.3 多个张量分别与多个卷积核的卷积
- 8.4.4 在每一深度上分别卷积
- 8.4.5 单个张量与多个卷积核在深度上分别卷积
- 8.4.6 分离卷积
- 9 池化操作
- 9.1 same池化
- 9.1.1 same最大值池化
- 9.1.2 多深度张量的same池化
- 9.1.3 多个三维张量的same最大值池化
- 9.1.4 same平均值池化
- 9.2 valid池化
- 9.2.1 多深度张量的vaild池化
- 9.2.2 多个三维张量的valid池化
- 10 卷积神经网络
- 10.1 浅层卷积神经网络
- 10.2 LeNet
- 10.3 AlexNet
- 10.3.1 AlexNet网络结构详解
- 10.3.2 dropout及其梯度下降
- 10.4 VGGNet
- 10.5 GoogleNet
- 10.5.1 网中网结构
- 10.5.2 Batch Normalization
- 10.5.3 BN与卷积运算的关系
- 10.5.4 指数移动平均
- 10.5.5 带有BN操作的卷积神经网络
- 10.6 ResNet
- 11 卷积的梯度反向传播
- 11.1 valid卷积的梯度
- 11.1.1 已知卷积核,对未知张量求导
- 11.1.2 已知输入张量,对未知卷积核求导
- 11.2 same卷积的梯度
- 11.2.1 已知卷积核,对输入张量求导
- 11.2.2 已知输入张量,对未知卷积核求导
- 12 池化操作的梯度
- 12.1 平均值池化的梯度
- 12.2 最大值池化的梯度
- 13 BN的梯度反向传播
- 13.1 BN操作与卷积的关系
- 13.2 示例详解
- 14 TensorFlow搭建神经网络的主要函数
展开全部
出版方
电子工业出版社
电子工业出版社成立于1982年10月,是国务院独资、工信部直属的中央级科技与教育出版社,是专业的信息技术知识集成和服务提供商。经过三十多年的建设与发展,已成为一家以科技和教育出版、期刊、网络、行业支撑服务、数字出版、软件研发、软科学研究、职业培训和教育为核心业务的现代知识服务集团。出版物内容涵盖了电子信息技术的各个分支及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。