展开全部

主编推荐语

系统论述深度学习的基本原理、先进算法及PyTorch的工程实现。

内容简介

本书系统介绍了人工智能相关算法,尤其是深度学习算法,包含了基础的算法理论介绍、深度学习框架实现和重要的算法模型应用简介等,本书提供配套的源代码、开源版本电子书、课件素材、以及微课视频等资料。

全书共14章,可以分为4部份:第1~3章为第1部分,主要介绍人工智能的初步认知,并引出相关算法问题;第4~5章为第2部分,主要介绍PyTorch框架使用基础知识,为后续算法实现作铺垫;第6~9章为第3部分,主要介绍神经网络的核心理论基础,让读者能理解深度学习的本质;第10~14章为第4部分,主要介绍经典算法方向与模型结构的应用,让读者能够学有所用。

目录

  • 版权信息
  • 内容简介
  • 作者简介
  • 前言
  • 第1章 人工智能绪论
  • 1.1 人工智能
  • 1.1.1 人工智能简介
  • 1.1.2 机器学习
  • 1.1.3 神经网络与深度学习
  • 1.2 神经网络发展简史
  • 1.2.1 浅层神经网络
  • 1.2.2 深度学习
  • 1.3 深度学习特点
  • 1.3.1 数据量
  • 1.3.2 算力
  • 1.3.3 网络规模
  • 1.3.4 通用智能
  • 1.4 深度学习应用
  • 1.4.1 计算机视觉
  • 1.4.2 自然语言处理
  • 1.4.3 强化学习
  • 1.5 深度学习框架
  • 1.5.1 主流框架
  • 1.5.2 静态图和动态图
  • 1.5.3 功能演示
  • 1.加速计算
  • 2.自动梯度
  • 3.常用神经网络接口
  • 1.6 开发环境安装
  • 1.6.1 安装Anaconda
  • 1.6.2 安装CUDA
  • 1.6.3 安装PyTorch
  • 1.6.4 常用编辑器安装
  • 第2章 回归问题
  • 2.1 神经元模型
  • 2.2 优化方法
  • 2.3 线性模型实战
  • 1.采样数据
  • 2.计算误差
  • 3.计算梯度
  • 4.梯度更新
  • 2.4 线性回归
  • 第3章 分类问题
  • 3.1 手写数字图片数据集
  • 3.2 模型构建
  • 3.3 误差计算
  • 3.4 真的解决了吗
  • 3.5 非线性模型
  • 3.6 表达能力
  • 3.7 优化方法
  • 3.8 手写数字图片识别体验
  • 3.8.1 网络搭建
  • 3.8.2 模型训练
  • 第4章 PyTorch基础
  • 4.1 数据类型
  • 4.1.1 数值类型
  • 4.1.2 布尔类型
  • 4.2 数值精度
  • 4.2.1 读取精度
  • 4.2.2 类型转换
  • 4.3 待优化张量
  • 4.4 创建张量
  • 4.4.1 从数组、列表对象创建
  • 4.4.2 创建全0或全1张量
  • 4.4.3 创建自定义数值张量
  • 4.4.4 创建已知分布的张量
  • 4.4.5 创建序列
  • 4.5 张量的典型应用
  • 4.5.1 标量
  • 4.5.2 向量
  • 4.5.3 矩阵
  • 4.5.4 三维张量
  • 4.5.5 四维张量
  • 4.6 索引与切片
  • 4.6.1 索引
  • 4.6.2 切片
  • 4.6.3 小结
  • 4.7 维度变换
  • 4.7.1 改变视图
  • 4.7.2 增加和删除维度
  • 4.7.3 交换维度
  • 4.7.4 复制数据
  • 4.8 Broadcasting机制
  • 4.9 数学运算
  • 4.9.1 加、减、乘、除运算
  • 4.9.2 乘方运算
  • 4.9.3 指数和对数运算
  • 4.9.4 矩阵相乘运算
  • 4.10 前向传播实战
  • 第5章 PyTorch进阶
  • 5.1 合并与分割
  • 5.1.1 合并
  • 5.1.2 分割
  • 5.2 数据统计
  • 5.2.1 向量范数
  • 5.2.2 最值、均值、和
  • 5.3 张量比较
  • 5.4 填充与复制
  • 5.4.1 填充
  • 5.4.2 复制
  • 5.5 数据限幅
  • 5.6 高级操作
  • 5.6.1 索引采样
  • 5.6.2 掩码采样
  • 5.6.3 gather采样函数
  • 5.6.4 where采样函数
  • 5.6.5 scatter写入函数
  • 5.6.6 meshgrid网格函数
  • 5.7 经典数据集加载
  • 5.7.1 预处理
  • 5.7.2 随机打散
  • 5.7.3 批训练
  • 5.7.4 循环训练
  • 5.8 MNIST测试实战
  • 第6章 神经网络
  • 6.1 感知机
  • 6.2 全连接层
  • 6.2.1 张量方式实现
  • 6.2.2 层方式实现
  • 6.3 神经网络
  • 6.3.1 张量方式实现
  • 6.3.2 层方式实现
  • 6.3.3 优化目标
  • 6.4 激活函数
  • 6.4.1 Sigmoid
  • 6.4.2 ReLU
  • 6.4.3 LeakyReLU
  • 6.4.4 tanh
  • 6.5 输出层设计
  • 6.5.1 普通实数空间
  • 6.5.2 [0,1]区间
  • 6.5.3 [0,1]区间,和为1
  • 6.5.4 (-1,1)区间
  • 6.6 误差计算
  • 6.6.1 均方误差函数
  • 6.6.2 交叉熵误差函数
  • 6.7 神经网络类型
  • 6.7.1 卷积神经网络
  • 6.7.2 循环神经网络
  • 6.7.3 注意力(机制)网络
  • 6.7.4 图卷积神经网络
  • 6.8 汽车油耗预测实战
  • 6.8.1 数据集
  • 6.8.2 创建网络
  • 6.8.3 训练与测试
  • 第7章 反向传播算法
  • 7.1 导数与梯度
  • 7.2 导数常见性质
  • 7.2.1 基本函数的导数
  • 7.2.2 常用导数性质
  • 7.2.3 导数求解实战
  • 7.3 激活函数导数
  • 7.3.1 Sigmoid函数导数
  • 7.3.2 ReLU函数导数
  • 7.3.3 LeakyReLU函数导数
  • 7.3.4 tanh函数梯度
  • 7.4 损失函数梯度
  • 7.4.1 均方误差函数梯度
  • 7.4.2 交叉熵损失函数梯度
  • 1.Softmax函数梯度
  • 2.交叉熵损失函数梯度
  • 7.5 全连接层梯度
  • 7.5.1 单神经元梯度
  • 7.5.2 全连接层梯度
  • 7.6 链式法则
  • 7.7 反向传播算法
  • 7.8 Himmelblau函数优化实战
  • 7.9 反向传播算法实战
  • 7.9.1 数据集
  • 7.9.2 网络层
  • 7.9.3 网络模型
  • 7.9.4 网络训练
  • 7.9.5 网络性能
  • 第8章 PyTorch高级用法
  • 8.1 常见功能模块
  • 8.1.1 常见网络层类
  • 8.1.2 网络容器
  • 8.2 模型创建、训练与测试
  • 8.2.1 模型创建
  • 8.2.2 模型训练
  • 8.2.3 模型测试
  • 8.3 模型保存与加载
  • 8.3.1 张量方式
  • 8.3.2 网络方式
  • 8.4 自定义网络
  • 8.4.1 自定义网络层
  • 8.4.2 自定义网络
  • 8.5 模型乐园
  • 8.5.1 加载模型
  • 8.5.2 微调模型
  • 8.6 测量工具
  • 8.6.1 新建测量器
  • 8.6.2 写入数据
  • 8.6.3 统计数据
  • 8.6.4 清除状态
  • 8.6.5 准确率统计实战
  • 8.7 可视化
  • 8.7.1 模型端
  • 8.7.2 浏览器端
  • 第9章 过拟合
  • 9.1 模型的容量
  • 9.2 欠拟合与过拟合
  • 9.2.1 欠拟合
  • 9.2.2 过拟合
  • 9.3 数据集划分
  • 9.3.1 验证集与超参数
  • 9.3.2 提前停止
  • 9.4 模型设计
  • 9.5 正则化
  • 9.5.1 L0正则化
  • 9.5.2 L1正则化
  • 9.5.3 L2正则化
  • 9.5.4 正则化效果
  • 9.6 Dropout
  • 9.7 数据增强
  • 9.7.1 随机旋转
  • 9.7.2 随机翻转
  • 9.7.3 随机裁剪
  • 9.7.4 生成数据
  • 9.7.5 其他方式
  • 9.8 过拟合问题实战
  • 9.8.1 构建数据集
  • 9.8.2 Pytorch lightning库
  • 9.8.3 网络层数的影响
  • 9.8.4 Dropout的影响
  • 9.8.5 正则化的影响
  • 第10章 卷积神经网络
  • 10.1 全连接网络的问题
  • 10.1.1 局部相关性
  • 10.1.2 权值共享
  • 10.1.3 卷积运算
  • 10.2 卷积神经网络
  • 10.2.1 单通道输入和单卷积核
  • 10.2.2 多通道输入和单卷积核
  • 10.2.3 多通道输入和多卷积核
  • 10.2.4 步长
  • 10.2.5 填充
  • 10.3 卷积层实现
  • 10.3.1 自定义权值
  • 10.3.2 卷积层类
  • 10.4 LeNet-5实战
  • 10.5 表示学习
  • 10.6 梯度传播
  • 10.7 池化层
  • 10.8 BatchNorm层
  • 10.8.1 前向传播
  • 10.8.2 反向更新
  • 10.8.3 BN层实现
  • 10.9 经典卷积网络
  • 10.9.1 AlexNet
  • 10.9.2 VGG系列
  • 10.9.3 GoogLeNet
  • 10.10 VGG13实战
  • 10.10.1 CIFAR数据集
  • 10.10.2 VGG模型
  • 10.11 卷积层变种
  • 10.11.1 空洞卷积
  • 10.11.2 转置卷积
  • 1.o+2p-k为s的倍数
  • 2.o+2p-k不为s的倍数
  • 3.矩阵角度解读
  • 4.转置卷积实现
  • 10.11.3 分离卷积
  • 10.12 深度残差网络
  • 10.12.1 ResNet原理
  • 10.12.2 ResBlock实现
  • 10.13 DenseNet
  • 10.14 ResNet18实战
  • 第11章 循环神经网络
  • 11.1 序列表示方法
  • 11.1.1 Embedding层
  • 11.1.2 预训练的词向量
  • 11.2 循环神经网络
  • 11.2.1 全连接层可行吗
  • 11.2.2 共享权值
  • 11.2.3 全局语义
  • 11.2.4 循环神经网络
  • 11.3 梯度传播
  • 11.4 RNN层使用方法
  • 11.4.1 RNNCell
  • 11.4.2 多层RNNCell网络
  • 11.4.3 RNN层
  • 11.5 RNN情感分类问题实战
  • 11.5.1 数据集
  • 11.5.2 网络模型
  • 11.5.3 训练与测试
  • 11.6 梯度弥散和梯度爆炸
  • 11.6.1 梯度裁剪
  • 11.6.2 梯度弥散
  • 11.7 RNN短时记忆
  • 11.8 LSTM原理
  • 11.8.1 遗忘门
  • 11.8.2 输入门
  • 11.8.3 刷新Memory
  • 11.8.4 输出门
  • 11.8.5 小结
  • 11.9 LSTM层使用方法
  • 11.9.1 LSTMCell
  • 11.9.2 LSTM层
  • 11.10 GRU简介
  • 11.10.1 复位门
  • 11.10.2 更新门
  • 11.10.3 GRU使用方法
  • 11.11 LSTM/GRU情感分类问题再战
  • 11.11.1 LSTM模型
  • 11.11.2 GRU模型
  • 第12章 自编码器
  • 12.1 自编码器原理
  • 12.2 Fashion MNIST图片重建实战
  • 12.2.1 Fashion MNIST数据集
  • 12.2.2 编码器
  • 12.2.3 解码器
  • 12.2.4 自编码器
  • 12.2.5 网络训练
  • 12.2.6 图片重建
  • 12.3 自编码器变种
  • 12.3.1 Denoising Auto-Encoder
  • 12.3.2 Dropout Auto-Encoder
  • 12.3.3 Adversarial Auto-Encoder
  • 12.4 变分自编码器
  • 12.4.1 VAE原理
  • 12.4.2 Reparameterization Trick
  • 12.5 VAE图片生成实战
  • 12.5.1 VAE模型
  • 12.5.2 Reparameterization函数
  • 12.5.3 网络训练
  • 12.5.4 图片生成
  • 第13章 生成对抗网络
  • 13.1 博弈学习实例
  • 13.2 GAN原理
  • 13.2.1 网络结构
  • 13.2.2 网络训练
  • 13.2.3 统一目标函数
  • 13.3 DCGAN实战
  • 13.3.1 动漫图片数据集
  • 13.3.2 生成器
  • 13.3.3 判别器
  • 13.3.4 训练与可视化
  • 1.判别网络
  • 2.生成网络
  • 3.网络训练
  • 13.4 GAN变种
  • 13.4.1 DCGAN
  • 13.4.2 InfoGAN
  • 13.4.3 CycleGAN
  • 13.4.4 WGAN
  • 13.4.5 Equal GAN
  • 13.4.6 Self-Attention GAN
  • 13.4.7 BigGAN
  • 13.5 纳什均衡
  • 13.5.1 判别器状态
  • 13.5.2 生成器状态
  • 13.5.3 纳什均衡点
  • 13.6 GAN训练难题
  • 13.6.1 超参数敏感
  • 13.6.2 模式崩塌
  • 13.7 WGAN原理
  • 13.7.1 JS散度的缺陷
  • 13.7.2 EM距离
  • 13.7.3 WGAN-GP
  • 13.8 WGAN-GP实战
  • 第14章 自定义数据集
  • 14.1 精灵宝可梦数据集
  • 14.2 自定义数据集加载
  • 14.2.1 创建编码表
  • 14.2.2 创建样本和标签表格
  • 14.2.3 数据集划分
  • 14.3 宝可梦数据集实战
  • 14.3.1 创建Dataset对象
  • 14.3.2 样本预处理
  • 14.3.3 创建模型
  • 14.3.4 网络训练与测试
  • 14.4 迁移学习
  • 14.4.1 迁移学习原理
  • 14.4.2 迁移学习实战
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

清华大学出版社

清华大学出版社成立于1980年6月,是由教育部主管、清华大学主办的综合出版单位。植根于“清华”这座久负盛名的高等学府,秉承清华人“自强不息,厚德载物”的人文精神,清华大学出版社在短短二十多年的时间里,迅速成长起来。清华大学出版社始终坚持弘扬科技文化产业、服务科教兴国战略的出版方向,把出版高等学校教学用书和科技图书作为主要任务,并为促进学术交流、繁荣出版事业设立了多项出版基金,逐渐形成了以出版高水平的教材和学术专著为主的鲜明特色,在教育出版领域树立了强势品牌。