人工智能
类型
7.7
豆瓣评分
可以朗读
语音朗读
291千字
字数
2021-01-01
发行日期
展开全部
主编推荐语
深度学习理论算法与计算机视觉应用全面解析。
内容简介
本书系统性描述深度学习的基本理论算法及应用,内容偏重于计算机视觉相关主题。全书共14章,分为四个部分:第一部分(第1章~第3章)系统性论述了数学基础、机器学习基础和深度学习基础;第二部分(第4章~第7章)介绍了一些经典网络及计算机视觉常用的CNN、RNN、GAN三类网络结构技术;第三部分(第8章~第9章)介绍了深度学习在计算机视觉领域的目标检测及图像分割两大应用;第四部分(第10章~第14)介绍了计算机视觉领域主要的优化方法及思路等,包括迁移学习方法、网络搭建及训练技巧、网络优化及模型压缩加速。
目录
- 封面
- 前折页
- 版权信息
- 内容简介
- 推荐序1
- 推荐序2
- 前言
- 第1章 数学基础
- 1.1 向量和矩阵
- 1.1.1 标量、向量、矩阵和张量
- 1.1.2 张量与矩阵的区别
- 1.1.3 矩阵和向量相乘的结果
- 1.1.4 向量和矩阵的范数归纳
- 1.1.5 判断一个矩阵是否为正定矩阵
- 1.2 导数和偏导数
- 1.2.1 导数偏导计算
- 1.2.2 导数和偏导数的区别
- 1.3 特征值和特征向量
- 1.3.1 特征值分解
- 1.3.2 奇异值和特征值的关系
- 1.4 概率分布与随机变量
- 1.4.1 机器学习为什么要使用概率
- 1.4.2 变量与随机变量的区别
- 1.4.3 随机变量与概率分布的联系
- 1.4.4 离散型随机变量和概率质量函数
- 1.4.5 连续型随机变量和概率密度函数
- 1.4.6 举例理解条件概率
- 1.4.7 联合概率与边缘概率的区别和联系
- 1.4.8 条件概率的链式法则
- 1.4.9 独立性和条件独立性
- 1.5 常见概率分布
- 1.5.1 伯努利分布
- 1.5.2 高斯分布
- 1.5.3 何时采用正态分布
- 1.5.4 指数分布
- 1.5.5 Laplace分布
- 1.5.6 Dirac分布和经验分布
- 1.6 期望、方差、协方差、相关系数
- 1.6.1 期望
- 1.6.2 方差
- 1.6.3 协方差
- 1.6.4 相关系数
- 第2章 机器学习基础
- 2.1 基本概念
- 2.1.1 大话机器学习本质
- 2.1.2 什么是神经网络
- 2.1.3 各种常见算法图示
- 2.1.4 计算图的导数计算
- 2.1.5 理解局部最优与全局最优
- 2.1.6 大数据与深度学习之间的关系
- 2.2 机器学习的学习方式
- 2.2.1 监督学习
- 2.2.2 非监督学习
- 2.2.3 半监督学习
- 2.2.4 弱监督学习
- 2.2.5 监督学习模型的搭建步骤
- 2.3 分类算法
- 2.3.1 常用分类算法的优缺点
- 2.3.2 分类算法的评估方法
- 2.3.3 正确率能否很好地评估分类算法
- 2.3.4 什么样的分类器是最好的
- 2.4 逻辑回归
- 2.4.1 回归的种类
- 2.4.2 逻辑回归适用性
- 2.4.3 逻辑回归与朴素贝叶斯的区别
- 2.4.4 线性回归与逻辑回归的区别
- 2.5 代价函数
- 2.5.1 为什么需要代价函数
- 2.5.2 代价函数作用原理
- 2.5.3 常见代价函数
- 2.5.4 为什么代价函数要非负
- 2.5.5 为什么用交叉熵代替二次代价函数
- 2.6 损失函数
- 2.6.1 什么是损失函数
- 2.6.2 常见的损失函数
- 2.6.3 逻辑回归为什么使用对数损失函数
- 2.6.4 对数损失函数如何度量损失
- 2.7 梯度下降法
- 2.7.1 梯度下降法的作用
- 2.7.2 梯度下降法的直观理解
- 2.7.3 梯度下降法算法描述
- 2.7.4 梯度下降法的缺点
- 2.7.5 如何对梯度下降法进行调优
- 2.7.6 随机梯度下降和批量梯度下降的区别
- 2.7.7 各种梯度下降法性能比较
- 2.8 线性判别分析
- 2.8.1 LDA思想总结
- 2.8.2 图解LDA核心思想
- 2.8.3 二类LDA算法原理
- 2.8.4 LDA算法流程总结
- 2.8.5 LDA和PCA的异同
- 2.8.6 LDA的优缺点
- 2.9 主成分分析
- 2.9.1 图解PCA核心思想
- 2.9.2 PCA算法推理
- 2.9.3 PCA算法流程总结
- 2.9.4 PCA思想总结
- 2.9.5 PCA算法的优缺点
- 2.9.6 降维的必要性及目的
- 2.9.7 KPCA与PCA的区别
- 2.10 模型评估
- 2.10.1 模型评估常用方法
- 2.10.2 误差、偏差和方差的区别和联系
- 2.10.3 为什么使用标准差
- 2.10.4 经验误差与泛化误差
- 2.10.5 图解欠拟合与过拟合
- 2.10.6 如何解决欠拟合与过拟合
- 2.10.7 交叉验证的主要作用
- 2.10.8 理解K折交叉验证
- 2.10.9 理解混淆矩阵
- 2.10.10 理解查准率与查全率
- 2.10.11 理解ROC与AUC
- 2.10.12 如何绘制ROC曲线
- 2.10.13 如何计算TPR和FPR
- 2.10.14 如何计算AUC
- 2.10.15 直观理解AUC
- 2.10.16 ROC评估分类器
- 2.10.17 代价敏感错误率与代价曲线
- 2.10.18 比较检验方法
- 2.11 决策树
- 2.11.1 决策树的基本原理
- 2.11.2 决策树的生成过程
- 2.11.3 决策树学习基本算法步骤
- 2.11.4 决策树算法的优缺点
- 2.11.5 决策树和熵的联系
- 2.11.6 熵的概念及定义
- 2.11.7 理解信息增益
- 2.11.8 决策树中熵、条件熵和信息增益的联系
- 2.11.9 决策树算法中剪枝的作用及策略
- 2.12 支持向量机(SVM)
- 2.12.1 什么是SVM
- 2.12.2 SVM能解决的问题
- 2.12.3 核函数特点及其作用
- 2.12.4 SVM为什么引入对偶问题
- 2.12.5 如何理解SVM中的对偶问题
- 2.12.6 常见的核函数
- 2.12.7 SVM的主要特点
- 2.12.8 SVM的主要缺点
- 2.12.9 逻辑回归与SVM的异同
- 2.13 贝叶斯分类器
- 2.13.1 贝叶斯分类器的基本原理
- 2.13.2 朴素贝叶斯分类器
- 2.13.3 举例理解朴素贝叶斯分类器
- 2.13.4 半朴素贝叶斯分类器
- 2.13.5 极大似然估计和贝叶斯估计的联系与区别
- 2.13.6 极大似然估计原理
- 2.13.7 图解极大似然估计
- 2.14 EM算法
- 2.14.1 EM算法的基本思想
- 2.14.2 EM算法推导
- 2.14.3 图解EM算法
- 2.14.4 EM算法流程
- 2.15 降维和聚类
- 2.15.1 图解为什么会产生维数灾难
- 2.15.2 怎样避免维数灾难
- 2.15.3 聚类和降维
- 2.15.4 聚类算法优劣的衡量标准
- 2.15.5 聚类和分类
- 2.15.6 聚类算法的性能比较
- 2.15.7 4种常用聚类方法比较
- 第3章 深度学习基础
- 3.1 基本概念
- 3.1.1 神经网络的类型
- 3.1.2 神经网络的常用模型结构
- 3.1.3 深度学习和机器学习的区别与联系
- 3.1.4 为什么使用深层表示
- 3.1.5 深度学习架构分类
- 3.1.6 如何选择深度学习开发平台
- 3.2 神经网络计算
- 3.2.1 前向传播和反向传播
- 3.2.2 如何计算神经网络的输出
- 3.2.3 如何计算卷积神经网络输出值
- 3.2.4 如何计算池化层输出值
- 3.2.5 反向传播实例
- 3.2.6 神经网络更“深”的意义
- 3.3 激活函数
- 3.3.1 为什么需要激活函数
- 3.3.2 为什么激活函数需要非线性函数
- 3.3.3 常见的激活函数及其图像
- 3.3.4 常见激活函数的导数计算
- 3.3.5 激活函数有哪些性质
- 3.3.6 如何选择激活函数
- 3.3.7 为什么tanh收敛速度比sigmoid快
- 3.3.8 Relu激活函数的优点
- 3.3.9 理解Relu激活函数的稀疏激活性
- 3.3.10 什么时候可以用线性激活函数
- 3.3.11 softmax函数的定义及作用
- 3.3.12 softmax函数如何应用于多分类
- 3.4 Batch Size
- 3.4.1 为什么需要Batch Size
- 3.4.2 如何选择Batch Size值
- 3.4.3 调节Batch Size对训练效果的影响
- 3.4.4 在合理范围内增大Batch Size的好处
- 3.4.5 盲目增大Batch Size的坏处
- 3.5 归一化
- 3.5.1 理解归一化含义
- 3.5.2 归一化和标准化的联系与区别
- 3.5.3 为什么要归一化或标准化
- 3.5.4 图解为什么要归一化
- 3.5.5 为什么归一化能提高求最优解速度
- 3.5.6 归一化有哪些类型
- 3.5.7 局部响应归一化作用
- 3.5.8 局部响应归一化原理
- 3.5.9 什么是批归一化
- 3.5.10 批归一化的优点
- 3.5.11 批归一化算法流程
- 3.5.12 批归一化和组归一化比较
- 3.5.13 权重归一化和批归一化比较
- 3.5.14 批归一化适用范围
- 3.5.15 BN、LN、IN和GN的对比
- 3.6 参数初始化
- 3.6.1 参数初始化应满足的条件
- 3.6.2 常用的几种初始化方式
- 3.6.3 全0初始化带来的问题
- 3.6.4 全都初始化为同样的值
- 3.6.5 初始化为小的随机数
- 3.6.6 用1/√n校准方差
- 3.7 预训练与微调
- 3.7.1 什么是预训练和微调
- 3.7.2 预训练和微调的作用
- 3.7.3 预训练模型的复用
- 3.7.4 预训练和迁移学习
- 3.7.5 微调时网络参数是否更新
- 3.7.6 微调模型的三种状态
- 3.7.7 为什么深层神经网络难以训练
- 3.8 超参数
- 3.8.1 超参数有哪些
- 3.8.2 参数和模型的关系
- 3.8.3 参数和超参数的区别
- 3.8.4 如何寻找超参数的最优值
- 3.8.5 超参数搜索的一般过程
- 3.9 学习率
- 3.9.1 学习率的作用
- 3.9.2 学习率衰减的常用参数
- 3.9.3 常用的学习率衰减方法
- 3.10 正则化
- 3.10.1 为什么要正则化
- 3.10.2 常见正则化方法
- 3.10.3 图解L1和L2正则化
- 3.10.4 Dropout具体工作流程
- 3.10.5 为什么Dropout可以解决过拟合问题
- 3.10.6 Dropout的缺点
- 第4章 卷积神经网络的经典网络
- 4.1 LeNet-5
- 4.1.1 模型介绍
- 4.1.2 模型结构
- 4.1.3 模型特性
- 4.2 AlexNet
- 4.2.1 模型介绍
- 4.2.2 模型结构
- 4.2.3 模型特性
- 4.3 ZFNet
- 4.3.1 模型介绍
- 4.3.2 模型结构
- 4.3.3 模型特性
- 4.4 NIN
- 4.4.1 模型介绍
- 4.4.2 模型结构
- 4.4.3 模型特点
- 4.5 VGGNet
- 4.5.1 模型介绍
- 4.5.2 模型结构
- 4.5.3 模型特性
- 4.6 GoogLeNet
- 4.6.1 模型介绍
- 4.6.2 模型结构
- 4.6.3 模型特性
- 4.7 ResNet
- 4.7.1 模型介绍
- 4.7.2 模型结构
- 4.7.3 模型特性
- 4.8 DenseNet
- 4.8.1 模型介绍
- 4.8.2 模型结构
- 4.8.3 模型特性
- 4.9 CNN模型在GoogLeNet、VGGNet或AlexNet上调整的原因
- 第5章 卷积神经网络
- 5.1 CNN的结构
- 5.1.1 CNN和人类视觉的关系
- 5.1.2 CNN的结构组成
- 5.2 输入层
- 5.2.1 输入层作用
- 5.2.2 数据预处理
- 5.3 卷积层
- 5.3.1 卷积原理
- 5.3.2 卷积在图像中的作用
- 5.3.3 卷积层的基本参数
- 5.3.4 卷积核的类型
- 5.3.5 1×1卷积的作用
- 5.3.6 卷积核是否越大越好
- 5.3.7 每层卷积是否只能用一种尺寸的卷积核
- 5.3.8 如何减少卷积层参数量
- 5.3.9 在标准卷积中同时考虑通道和区域的优缺点
- 5.3.10 采用宽卷积的好处
- 5.4 激活层
- 5.4.1 激活层的作用
- 5.4.2 BN层和激活层的位置顺序选择
- 5.5 池化层
- 5.5.1 池化层作用
- 5.5.2 池化方法
- 5.5.3 卷积层和池化层的区别
- 5.5.4 NetVLAD池化
- 5.6 全连接层
- 5.6.1 全连接如何把二维特征图转化成一个一维向量
- 5.6.2 全卷积神经网络取代全连接层
- 5.6.3 图像分类中全连接层对卷积神经网络性能的影响
- 5.7 二维卷积与三维卷积
- 5.7.1 二维卷积与三维卷积的区别
- 5.7.2 图解三维卷积
- 5.7.3 RGB图不使用三维卷积的原因
- 5.8 理解转置卷积与棋盘效应
- 5.8.1 标准卷积
- 5.8.2 转置卷积
- 5.8.3 棋盘效应
- 5.9 卷积神经网络凸显共性的方法
- 5.9.1 局部连接
- 5.9.2 权重共享
- 5.9.3 池化操作
- 5.10 局部卷积
- 5.10.1 全连接、局部连接、全卷积与局部卷积对比
- 5.10.2 局部卷积的应用
- 5.11 CNN可视化
- 5.11.1 特征层学到了什么
- 5.11.2 特征层随训练而演化
- 5.11.3 消融分析
- 5.11.4 常见的网络可视化方法
- 5.12 卷积神经网络的优化及应用
- 5.12.1 卷积神经网络的参数设置
- 5.12.2 如何提高卷积神经网络的泛化能力
- 5.12.3 卷积神经网络的区域不变性和组合性
- 5.12.4 卷积神经网络在不同领域的应用
- 第6章 循环神经网络
- 6.1 为什么需要RNN
- 6.2 图解RNN基本结构
- 6.2.1 基本的单层网络结构
- 6.2.2 图解经典RNN结构
- 6.2.3 Vector-to-Sequence结构
- 6.2.4 Sequence-to-Vector结构
- 6.2.5 Encoder-Decoder结构
- 6.2.6 3种基本结构的应用场景
- 6.2.7 图解RNN中的注意机制
- 6.3 RNN的性质
- 6.3.1 RNN的典型特点
- 6.3.2 CNN和RNN的区别
- 6.3.3 RNN和FNN的异同
- 6.3.4 为什么RNN训练的时候损失值波动很大
- 6.4 RNN的后向传播
- 6.4.1 BPTT算法推导
- 6.4.2 RNN中为什么会出现梯度消失
- 6.4.3 如何解决RNN中的梯度消失问题
- 6.5 长短期记忆网络(LSTM)
- 6.5.1 LSTM的产生原因
- 6.5.2 标准的RNN和LSTM的区别
- 6.5.3 LSTM核心思想
- 6.5.4 LSTM流行的变体
- 6.5.5 LSTM与GRU的区别
- 6.6 常见的RNN结构上的扩展和改进
- 6.6.1 简单循环神经网络(SRN)
- 6.6.2 双向循环神经网络(BRNN)
- 6.6.3 深度循环神经网络(Deep RNN)
- 6.6.4 回声状态网络(ESN)
- 6.6.5 时钟频率驱动RNN(CW-RNN)
- 6.6.6 包含时间间隔的RNN
- 6.7 RNN在NLP中的典型应用举例
- 6.8 RNN与图像领域的结合举例
- 6.8.1 卷积循环神经网络
- 6.8.2 网格循环神经网络
- 6.8.3 像素循环神经网络
- 6.9 RNN与条件随机场的结合
- 第7章 生成对抗网络
- 7.1 GAN的基本概念
- 7.1.1 如何通俗地理解GAN
- 7.1.2 GAN的形式化表达
- 7.1.3 GAN的目标函数
- 7.1.4 GAN的目标函数和交叉熵损失的联系和区别
- 7.1.5 GAN的损失值为什么降不下去
- 7.1.6 生成式模型和判别式模型的区别
- 7.1.7 模式崩塌和模式丢弃
- 7.1.8 为什么会出现模式崩塌
- 7.1.9 如何解决模式崩塌问题
- 7.2 GAN的生成模型评价
- 7.2.1 Inception Score
- 7.2.2 Mode Score
- 7.2.3 Kernel MMD
- 7.2.4 Wasserstein Distance
- 7.2.5 Fréchet Inception Distance(FID)
- 7.2.6 1-NN分类器(1-Nearest Neighbor Classifier)
- 7.2.7 其他评价方法
- 7.3 其他常见的生成模型
- 7.3.1 自回归模型:pixelRNN与pixelCNN
- 7.3.2 变分自动编码器(VAE)原理
- 7.4 GAN的改进与优化
- 7.4.1 如何生成指定类型的图像(CGAN)
- 7.4.2 CNN与GAN的结合(DCGAN)
- 7.4.3 GAN为什么容易训练崩溃
- 7.4.4 WGAN如何解决训练崩溃问题
- 7.4.5 带有梯度正则的WGAN(WGAN-GP)
- 7.4.6 最小二乘GAN(LSGAN)
- 7.4.7 如何尽量避免GAN的训练崩溃问题
- 7.5 GAN的应用:图像翻译
- 7.5.1 什么是图像翻译
- 7.5.2 有监督图像翻译(pix2pix)
- 7.5.3 有监督图像翻译的缺点
- 7.5.4 无监督图像翻译(CycleGAN)
- 7.5.5 多领域的无监督图像翻译(StarGAN)
- 7.6 GAN的应用:文本生成
- 7.6.1 传统GAN为什么不适合文本任务
- 7.6.2 SeqGAN用于文本生成
- 7.7 GAN在其他领域的应用
- 7.7.1 数据增广
- 7.7.2 图像超分辨与图像补全
- 7.7.3 语音领域
- 第8章 目标检测
- 8.1 基本概念
- 8.1.1 目标检测
- 8.1.2 目标检测要解决的核心问题
- 8.1.3 目标检测的算法分类
- 8.1.4 目标检测的应用领域
- 8.2 two-stage目标检测算法
- 8.2.1 R-CNN
- 8.2.2 Fast R-CNN
- 8.2.3 Faster R-CNN
- 8.2.4 R-FCN
- 8.2.5 FPN
- 8.2.6 Mask R-CNN
- 8.3 one-stage目标检测算法
- 8.3.1 YOLO
- 8.3.2 YOLOv2
- 8.3.3 YOLO9000
- 8.3.4 YOLOv3
- 8.3.5 YOLOv4
- 8.3.6 SSD
- 8.3.7 DSSD
- 8.3.8 RetinaNet
- 8.3.9 RFBNet
- 8.3.10 M2Det
- 8.4 目标检测的常用数据集
- 8.4.1 PASCAL VOC
- 8.4.2 Microsoft COCO
- 8.4.3 谷歌Open Image
- 8.4.4 ImageNet
- 8.5 目标检测常用标注工具
- 8.5.1 LabelImg
- 8.5.2 LabelMe
- 8.5.3 Labelbox
- 8.5.4 RectLabel
- 8.5.5 CVAT
- 8.5.6 VIA
- 8.5.7 其他标注工具
- 第9章 图像分割
- 9.1 常见的图像分割算法
- 9.1.1 基于阈值的分割算法
- 9.1.2 基于边缘检测的分割算法
- 9.1.3 基于区域的分割算法
- 9.1.4 基于神经网络技术的图像分割算法
- 9.1.5 基于深度学习的图像分割算法分类
- 9.1.6 常见的深度学习图像分割算法
- 9.2 FCN
- 9.2.1 为什么CNN对像素级别的分类很难
- 9.2.2 FCN有哪些改变
- 9.2.3 FCN的结构
- 9.2.4 全连接层和卷积层如何相互转化
- 9.2.5 为什么传统CNN的输入图片大小是固定的
- 9.2.6 把全连接层的权重重塑成卷积层的滤波器的好处
- 9.2.7 FCN如何进行逐个像素点预测分类
- 9.2.8 反卷积层理解
- 9.2.9 跳级(skip)结构
- 9.2.10 模型训练
- 9.2.11 FCN的优缺点
- 9.3 U-Net
- 9.4 U-Net++
- 9.5 SegNet
- 9.6 LinkNet
- 9.7 RefineNet
- 9.8 PSPNet
- 9.9 DeepLab系列
- 9.9.1 DeepLabv1
- 9.9.2 DeepLabv2
- 9.9.3 DeepLabv3
- 9.9.4 DeepLabv3+
- 9.10 Mask R-CNN作为目标分割的介绍
- 9.10.1 Mask R-CNN框架
- 9.10.2 Mask R-CNN损失函数
- 9.10.3 Mask R-CNN算法步骤
- 9.10.4 RoI池化与RoI Align
- 9.10.5 Mask R-CNN代码实现总体框架
- 9.10.6 Mask R-CNN训练和推导过程的区别
- 9.10.7 Mask R-CNN扩展
- 9.11 基于弱监督学习的图像分割
- 9.11.1 涂鸦标记(ScribbleSup)
- 9.11.2 图像级别标记(CCNN)
- 9.11.3 期望最大化估计像素类别
- 9.11.4 图像、边框与涂鸦标记融合框架
- 第10章 迁移学习
- 10.1 迁移学习基础知识
- 10.1.1 什么是迁移学习
- 10.1.2 为什么需要迁移学习
- 10.1.3 迁移学习与已有学习方式的区别和联系
- 10.1.4 负迁移
- 10.2 迁移学习的研究领域
- 10.2.1 按目标域标签分类
- 10.2.2 按学习方法分类
- 10.2.3 按特征分类
- 10.2.4 按离线与在线形式分类
- 10.3 迁移学习的应用
- 10.3.1 计算机视觉
- 10.3.2 文本分类
- 10.3.3 时间序列
- 10.3.4 医疗健康
- 10.4 迁移学习的基本方法
- 10.4.1 基于实例的迁移学习方法
- 10.4.2 基于特征的迁移学习方法
- 10.4.3 基于模型的迁移学习方法
- 10.4.4 基于关系的迁移学习方法
- 10.5 分布对齐的常用方法
- 10.5.1 数据分布自适应方法
- 10.5.2 特征选择方法
- 10.5.3 子空间学习方法
- 10.6 深度迁移学习方法
- 10.6.1 深度网络的可迁移性
- 10.6.2 微调
- 10.6.3 深度网络自适应
- 10.6.4 深度对抗网络迁移
- 10.7 迁移学习研究前沿
- 10.7.1 机器智能与人类经验结合的迁移学习
- 10.7.2 传递迁移学习
- 10.7.3 终身迁移学习
- 10.7.4 在线迁移学习
- 10.7.5 迁移强化学习
- 10.7.6 迁移学习的可解释性
- 第11章 网络构架介绍及训练
- 11.1 TensorFlow
- 11.1.1 TensorFlow的设计理念
- 11.1.2 TensorFlow的特点
- 11.1.3 TensorFlow的系统架构
- 11.1.4 TensorFlow的编程模型
- 11.1.5 基于TensorFlow搭建VGG16
- 11.2 Caffe
- 11.2.1 Caffe的特性
- 11.2.2 Caffe2的特性
- 11.2.3 Caffe2和PyTorch的区别
- 11.3 PyTorch
- 11.3.1 为什么选择PyTorch
- 11.3.2 PyTorch的架构
- 11.3.3 PyTorch 1.0三大重要更新
- 11.4 常见的深度学习分布式框架
- 11.4.1 PaddlePaddle
- 11.4.2 Deeplearning4j
- 11.4.3 Mahout
- 11.4.4 Spark MLlib
- 11.4.5 Spark Stream
- 11.4.6 Ray
- 11.4.7 Horovod
- 11.4.8 BigDL
- 11.4.9 Petastorm
- 11.4.10 TensorFlowOnSpark
- 11.5 网络搭建原则及训练技巧
- 11.5.1 网络搭建原则
- 11.5.2 网络训练技巧
- 第12章 网络优化技巧
- 12.1 数据集和样本优化
- 12.1.1 如何解决训练样本少的问题
- 12.1.2 深度学习能否胜任所有数据集
- 12.1.3 训练集、验证集、测试集的定义及划分
- 12.1.4 类别不平衡的产生原因
- 12.1.5 常见的类别不平衡问题的解决方法
- 12.1.6 常用的数据增强方法
- 12.2 数据不匹配问题
- 12.2.1 如何定位数据不匹配问题
- 12.2.2 常见的数据不匹配的场景
- 12.2.3 如何解决数据不匹配问题
- 12.3 网络构建和初始化
- 12.3.1 权重的初始化方法
- 12.3.2 激活函数的特点
- 12.3.3 卷积核设计尺寸都是奇数的原因
- 12.3.4 在网络设计中要权重共享的原因
- 12.4 特征选择
- 12.4.1 特征的类型
- 12.4.2 如何考虑特征选择
- 12.4.3 特征选择方法分类
- 12.4.4 特征选择的目的
- 12.5 梯度消失和梯度爆炸
- 12.5.1 使用梯度更新规则的原因
- 12.5.2 梯度消失和梯度爆炸产生的原因
- 12.5.3 如何解决梯度消失和梯度爆炸问题
- 12.5.4 防止梯度下降陷入局部最优困境
- 12.6 评价指标
- 12.6.1 设置单一数字评价指标的原因
- 12.6.2 Top5错误率
- 12.6.3 理解泛化误差、方差和偏差
- 12.7 模型和系统优化
- 12.7.1 是否存在比已知算法更好的算法
- 12.7.2 判断和解决共线性问题
- 12.7.3 深度学习不用二阶优化的原因
- 12.7.4 提升模型的稳定性
- 12.7.5 改善模型的思路
- 12.7.6 快速构建有效初始模型
- 12.7.7 通过模型重新观察数据
- 12.7.8 提高深度学习系统的性能
- 第13章 超参数调整
- 13.1 超参数的概念
- 13.1.1 参数和超参数的区别
- 13.1.2 超参数的类别
- 13.1.3 进行超参数调优的原因
- 13.1.4 超参数的重要性排序
- 13.1.5 部分超参数如何影响模型性能
- 13.1.6 部分超参数的合适范围
- 13.2 网络训练中的超参数调整策略
- 13.2.1 超参数优化的一般过程
- 13.2.2 如何调试模型
- 13.2.3 学习率调整的原因
- 13.2.4 学习率调整的策略
- 13.2.5 在极端批样本数量下训练网络
- 13.3 合理使用预训练网络
- 13.3.1 什么是微调
- 13.3.2 微调的方式
- 13.3.3 微调先冻结底层而训练顶层的原因
- 13.3.4 在不同的数据集下如何进行微调
- 13.3.5 在目标检测中使用预训练模型的优劣
- 13.3.6 目标检测如何从零开始训练
- 13.4 自动化超参数搜索方法
- 13.4.1 网格搜索
- 13.4.2 随机搜索
- 13.4.3 基于模型的超参数优化
- 13.5 自动机器学习AutoML
- 13.5.1 为什么需要AutoML
- 13.5.2 AutoML的问题构成
- 13.5.3 常见的AutoML框架
- 13.5.4 神经架构搜索(NAS)
- 第14章 模型压缩、加速和移动端部署
- 14.1 模型压缩
- 14.2 为什么需要模型压缩和加速
- 14.3 模型压缩方法
- 14.3.1 前端压缩和后端压缩对比
- 14.3.2 网络剪枝
- 14.3.3 典型剪枝方法的对比
- 14.3.4 网络蒸馏
- 14.3.5 前端压缩
- 14.3.6 后端压缩
- 14.3.7 低秩分解
- 14.3.8 总体压缩效果评价指标
- 14.4 网络压缩的未来研究方向
- 14.5 模型优化加速方法
- 14.5.1 模型优化加速方法类别
- 14.5.2 TensorRT加速原理
- 14.5.3 TensorRT如何优化重构模型
- 14.5.4 TensorRT的加速效果
- 14.6 如何选择压缩和加速方法
- 14.7 高效CNN网络设计的准则
- 14.7.1 分组卷积
- 14.7.2 深度可分离卷积
- 14.7.3 当输入/输出的通道数相等时,MAC最小
- 14.7.4 减少分组卷积的数量
- 14.7.5 降低网络碎片化程度(分支数量)
- 14.7.6 减少元素级操作
- 14.8 常用的轻量级网络
- 14.8.1 SequeezeNet
- 14.8.2 MobileNet
- 14.8.3 MobileNet-v2
- 14.8.4 MobileNet-v1和MobileNet-v2微结构比较
- 14.8.5 ResNet和MobileNet-v2微结构比较
- 14.8.6 Xception
- 14.8.7 ShuffleNet-v1
- 14.8.8 ShuffleNet-v2
- 14.9 现有的移动端开源框架及其特点
- 14.9.1 NCNN
- 14.9.2 QNNPACK
- 14.9.3 Prestissimo
- 14.9.4 MDL
- 14.9.5 Paddle-Mobile
- 14.9.6 MACE
- 14.9.7 FeatherCNN
- 14.9.8 TensorFlow Lite
- 14.9.9 PocketFlow
- 14.9.10 MDL、NCNN和TFLite对比
- 14.10 移动端开源框架部署
- 后折页
- 封底
展开全部
出版方
电子工业出版社
电子工业出版社成立于1982年10月,是国务院独资、工信部直属的中央级科技与教育出版社,是专业的信息技术知识集成和服务提供商。经过三十多年的建设与发展,已成为一家以科技和教育出版、期刊、网络、行业支撑服务、数字出版、软件研发、软科学研究、职业培训和教育为核心业务的现代知识服务集团。出版物内容涵盖了电子信息技术的各个分支及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。