互联网
类型
可以朗读
语音朗读
188千字
字数
2025-07-01
发行日期
展开全部
主编推荐语
系统论述深度学习的基本原理、先进算法及PyTorch的工程实现。
内容简介
本书系统介绍了人工智能相关算法,尤其是深度学习算法,包含了基础的算法理论介绍、深度学习框架实现和重要的算法模型应用简介等,本书提供配套的源代码、开源版本电子书、课件素材、以及微课视频等资料。
全书共14章,可以分为4部份:第1~3章为第1部分,主要介绍人工智能的初步认知,并引出相关算法问题;第4~5章为第2部分,主要介绍PyTorch框架使用基础知识,为后续算法实现作铺垫;第6~9章为第3部分,主要介绍神经网络的核心理论基础,让读者能理解深度学习的本质;第10~14章为第4部分,主要介绍经典算法方向与模型结构的应用,让读者能够学有所用。
目录
- 版权信息
- 内容简介
- 作者简介
- 前言
- 第1章 人工智能绪论
- 1.1 人工智能
- 1.1.1 人工智能简介
- 1.1.2 机器学习
- 1.1.3 神经网络与深度学习
- 1.2 神经网络发展简史
- 1.2.1 浅层神经网络
- 1.2.2 深度学习
- 1.3 深度学习特点
- 1.3.1 数据量
- 1.3.2 算力
- 1.3.3 网络规模
- 1.3.4 通用智能
- 1.4 深度学习应用
- 1.4.1 计算机视觉
- 1.4.2 自然语言处理
- 1.4.3 强化学习
- 1.5 深度学习框架
- 1.5.1 主流框架
- 1.5.2 静态图和动态图
- 1.5.3 功能演示
- 1.加速计算
- 2.自动梯度
- 3.常用神经网络接口
- 1.6 开发环境安装
- 1.6.1 安装Anaconda
- 1.6.2 安装CUDA
- 1.6.3 安装PyTorch
- 1.6.4 常用编辑器安装
- 第2章 回归问题
- 2.1 神经元模型
- 2.2 优化方法
- 2.3 线性模型实战
- 1.采样数据
- 2.计算误差
- 3.计算梯度
- 4.梯度更新
- 2.4 线性回归
- 第3章 分类问题
- 3.1 手写数字图片数据集
- 3.2 模型构建
- 3.3 误差计算
- 3.4 真的解决了吗
- 3.5 非线性模型
- 3.6 表达能力
- 3.7 优化方法
- 3.8 手写数字图片识别体验
- 3.8.1 网络搭建
- 3.8.2 模型训练
- 第4章 PyTorch基础
- 4.1 数据类型
- 4.1.1 数值类型
- 4.1.2 布尔类型
- 4.2 数值精度
- 4.2.1 读取精度
- 4.2.2 类型转换
- 4.3 待优化张量
- 4.4 创建张量
- 4.4.1 从数组、列表对象创建
- 4.4.2 创建全0或全1张量
- 4.4.3 创建自定义数值张量
- 4.4.4 创建已知分布的张量
- 4.4.5 创建序列
- 4.5 张量的典型应用
- 4.5.1 标量
- 4.5.2 向量
- 4.5.3 矩阵
- 4.5.4 三维张量
- 4.5.5 四维张量
- 4.6 索引与切片
- 4.6.1 索引
- 4.6.2 切片
- 4.6.3 小结
- 4.7 维度变换
- 4.7.1 改变视图
- 4.7.2 增加和删除维度
- 4.7.3 交换维度
- 4.7.4 复制数据
- 4.8 Broadcasting机制
- 4.9 数学运算
- 4.9.1 加、减、乘、除运算
- 4.9.2 乘方运算
- 4.9.3 指数和对数运算
- 4.9.4 矩阵相乘运算
- 4.10 前向传播实战
- 第5章 PyTorch进阶
- 5.1 合并与分割
- 5.1.1 合并
- 5.1.2 分割
- 5.2 数据统计
- 5.2.1 向量范数
- 5.2.2 最值、均值、和
- 5.3 张量比较
- 5.4 填充与复制
- 5.4.1 填充
- 5.4.2 复制
- 5.5 数据限幅
- 5.6 高级操作
- 5.6.1 索引采样
- 5.6.2 掩码采样
- 5.6.3 gather采样函数
- 5.6.4 where采样函数
- 5.6.5 scatter写入函数
- 5.6.6 meshgrid网格函数
- 5.7 经典数据集加载
- 5.7.1 预处理
- 5.7.2 随机打散
- 5.7.3 批训练
- 5.7.4 循环训练
- 5.8 MNIST测试实战
- 第6章 神经网络
- 6.1 感知机
- 6.2 全连接层
- 6.2.1 张量方式实现
- 6.2.2 层方式实现
- 6.3 神经网络
- 6.3.1 张量方式实现
- 6.3.2 层方式实现
- 6.3.3 优化目标
- 6.4 激活函数
- 6.4.1 Sigmoid
- 6.4.2 ReLU
- 6.4.3 LeakyReLU
- 6.4.4 tanh
- 6.5 输出层设计
- 6.5.1 普通实数空间
- 6.5.2 [0,1]区间
- 6.5.3 [0,1]区间,和为1
- 6.5.4 (-1,1)区间
- 6.6 误差计算
- 6.6.1 均方误差函数
- 6.6.2 交叉熵误差函数
- 6.7 神经网络类型
- 6.7.1 卷积神经网络
- 6.7.2 循环神经网络
- 6.7.3 注意力(机制)网络
- 6.7.4 图卷积神经网络
- 6.8 汽车油耗预测实战
- 6.8.1 数据集
- 6.8.2 创建网络
- 6.8.3 训练与测试
- 第7章 反向传播算法
- 7.1 导数与梯度
- 7.2 导数常见性质
- 7.2.1 基本函数的导数
- 7.2.2 常用导数性质
- 7.2.3 导数求解实战
- 7.3 激活函数导数
- 7.3.1 Sigmoid函数导数
- 7.3.2 ReLU函数导数
- 7.3.3 LeakyReLU函数导数
- 7.3.4 tanh函数梯度
- 7.4 损失函数梯度
- 7.4.1 均方误差函数梯度
- 7.4.2 交叉熵损失函数梯度
- 1.Softmax函数梯度
- 2.交叉熵损失函数梯度
- 7.5 全连接层梯度
- 7.5.1 单神经元梯度
- 7.5.2 全连接层梯度
- 7.6 链式法则
- 7.7 反向传播算法
- 7.8 Himmelblau函数优化实战
- 7.9 反向传播算法实战
- 7.9.1 数据集
- 7.9.2 网络层
- 7.9.3 网络模型
- 7.9.4 网络训练
- 7.9.5 网络性能
- 第8章 PyTorch高级用法
- 8.1 常见功能模块
- 8.1.1 常见网络层类
- 8.1.2 网络容器
- 8.2 模型创建、训练与测试
- 8.2.1 模型创建
- 8.2.2 模型训练
- 8.2.3 模型测试
- 8.3 模型保存与加载
- 8.3.1 张量方式
- 8.3.2 网络方式
- 8.4 自定义网络
- 8.4.1 自定义网络层
- 8.4.2 自定义网络
- 8.5 模型乐园
- 8.5.1 加载模型
- 8.5.2 微调模型
- 8.6 测量工具
- 8.6.1 新建测量器
- 8.6.2 写入数据
- 8.6.3 统计数据
- 8.6.4 清除状态
- 8.6.5 准确率统计实战
- 8.7 可视化
- 8.7.1 模型端
- 8.7.2 浏览器端
- 第9章 过拟合
- 9.1 模型的容量
- 9.2 欠拟合与过拟合
- 9.2.1 欠拟合
- 9.2.2 过拟合
- 9.3 数据集划分
- 9.3.1 验证集与超参数
- 9.3.2 提前停止
- 9.4 模型设计
- 9.5 正则化
- 9.5.1 L0正则化
- 9.5.2 L1正则化
- 9.5.3 L2正则化
- 9.5.4 正则化效果
- 9.6 Dropout
- 9.7 数据增强
- 9.7.1 随机旋转
- 9.7.2 随机翻转
- 9.7.3 随机裁剪
- 9.7.4 生成数据
- 9.7.5 其他方式
- 9.8 过拟合问题实战
- 9.8.1 构建数据集
- 9.8.2 Pytorch lightning库
- 9.8.3 网络层数的影响
- 9.8.4 Dropout的影响
- 9.8.5 正则化的影响
- 第10章 卷积神经网络
- 10.1 全连接网络的问题
- 10.1.1 局部相关性
- 10.1.2 权值共享
- 10.1.3 卷积运算
- 10.2 卷积神经网络
- 10.2.1 单通道输入和单卷积核
- 10.2.2 多通道输入和单卷积核
- 10.2.3 多通道输入和多卷积核
- 10.2.4 步长
- 10.2.5 填充
- 10.3 卷积层实现
- 10.3.1 自定义权值
- 10.3.2 卷积层类
- 10.4 LeNet-5实战
- 10.5 表示学习
- 10.6 梯度传播
- 10.7 池化层
- 10.8 BatchNorm层
- 10.8.1 前向传播
- 10.8.2 反向更新
- 10.8.3 BN层实现
- 10.9 经典卷积网络
- 10.9.1 AlexNet
- 10.9.2 VGG系列
- 10.9.3 GoogLeNet
- 10.10 VGG13实战
- 10.10.1 CIFAR数据集
- 10.10.2 VGG模型
- 10.11 卷积层变种
- 10.11.1 空洞卷积
- 10.11.2 转置卷积
- 1.o+2p-k为s的倍数
- 2.o+2p-k不为s的倍数
- 3.矩阵角度解读
- 4.转置卷积实现
- 10.11.3 分离卷积
- 10.12 深度残差网络
- 10.12.1 ResNet原理
- 10.12.2 ResBlock实现
- 10.13 DenseNet
- 10.14 ResNet18实战
- 第11章 循环神经网络
- 11.1 序列表示方法
- 11.1.1 Embedding层
- 11.1.2 预训练的词向量
- 11.2 循环神经网络
- 11.2.1 全连接层可行吗
- 11.2.2 共享权值
- 11.2.3 全局语义
- 11.2.4 循环神经网络
- 11.3 梯度传播
- 11.4 RNN层使用方法
- 11.4.1 RNNCell
- 11.4.2 多层RNNCell网络
- 11.4.3 RNN层
- 11.5 RNN情感分类问题实战
- 11.5.1 数据集
- 11.5.2 网络模型
- 11.5.3 训练与测试
- 11.6 梯度弥散和梯度爆炸
- 11.6.1 梯度裁剪
- 11.6.2 梯度弥散
- 11.7 RNN短时记忆
- 11.8 LSTM原理
- 11.8.1 遗忘门
- 11.8.2 输入门
- 11.8.3 刷新Memory
- 11.8.4 输出门
- 11.8.5 小结
- 11.9 LSTM层使用方法
- 11.9.1 LSTMCell
- 11.9.2 LSTM层
- 11.10 GRU简介
- 11.10.1 复位门
- 11.10.2 更新门
- 11.10.3 GRU使用方法
- 11.11 LSTM/GRU情感分类问题再战
- 11.11.1 LSTM模型
- 11.11.2 GRU模型
- 第12章 自编码器
- 12.1 自编码器原理
- 12.2 Fashion MNIST图片重建实战
- 12.2.1 Fashion MNIST数据集
- 12.2.2 编码器
- 12.2.3 解码器
- 12.2.4 自编码器
- 12.2.5 网络训练
- 12.2.6 图片重建
- 12.3 自编码器变种
- 12.3.1 Denoising Auto-Encoder
- 12.3.2 Dropout Auto-Encoder
- 12.3.3 Adversarial Auto-Encoder
- 12.4 变分自编码器
- 12.4.1 VAE原理
- 12.4.2 Reparameterization Trick
- 12.5 VAE图片生成实战
- 12.5.1 VAE模型
- 12.5.2 Reparameterization函数
- 12.5.3 网络训练
- 12.5.4 图片生成
- 第13章 生成对抗网络
- 13.1 博弈学习实例
- 13.2 GAN原理
- 13.2.1 网络结构
- 13.2.2 网络训练
- 13.2.3 统一目标函数
- 13.3 DCGAN实战
- 13.3.1 动漫图片数据集
- 13.3.2 生成器
- 13.3.3 判别器
- 13.3.4 训练与可视化
- 1.判别网络
- 2.生成网络
- 3.网络训练
- 13.4 GAN变种
- 13.4.1 DCGAN
- 13.4.2 InfoGAN
- 13.4.3 CycleGAN
- 13.4.4 WGAN
- 13.4.5 Equal GAN
- 13.4.6 Self-Attention GAN
- 13.4.7 BigGAN
- 13.5 纳什均衡
- 13.5.1 判别器状态
- 13.5.2 生成器状态
- 13.5.3 纳什均衡点
- 13.6 GAN训练难题
- 13.6.1 超参数敏感
- 13.6.2 模式崩塌
- 13.7 WGAN原理
- 13.7.1 JS散度的缺陷
- 13.7.2 EM距离
- 13.7.3 WGAN-GP
- 13.8 WGAN-GP实战
- 第14章 自定义数据集
- 14.1 精灵宝可梦数据集
- 14.2 自定义数据集加载
- 14.2.1 创建编码表
- 14.2.2 创建样本和标签表格
- 14.2.3 数据集划分
- 14.3 宝可梦数据集实战
- 14.3.1 创建Dataset对象
- 14.3.2 样本预处理
- 14.3.3 创建模型
- 14.3.4 网络训练与测试
- 14.4 迁移学习
- 14.4.1 迁移学习原理
- 14.4.2 迁移学习实战
展开全部
出版方
清华大学出版社
清华大学出版社成立于1980年6月,是由教育部主管、清华大学主办的综合出版单位。植根于“清华”这座久负盛名的高等学府,秉承清华人“自强不息,厚德载物”的人文精神,清华大学出版社在短短二十多年的时间里,迅速成长起来。清华大学出版社始终坚持弘扬科技文化产业、服务科教兴国战略的出版方向,把出版高等学校教学用书和科技图书作为主要任务,并为促进学术交流、繁荣出版事业设立了多项出版基金,逐渐形成了以出版高水平的教材和学术专著为主的鲜明特色,在教育出版领域树立了强势品牌。
