展开全部

主编推荐语

PyTorch教程,简单入门项目,实用模型,适合人工智能、机器学习从业者。

内容简介

PyTorch是基于Torch库的开源机器学习库,它主要由Meta(原Facebook)的人工智能研究实验室开发,在自然语言处理和计算机视觉领域都具有广泛的应用。

本书介绍了简单且经典的入门项目,方便快速上手,如MNIST数字识别,读者在完成项目的过程中可以了解数据集、模型和训练等基础概念。还介绍了一些实用且经典的模型,如R-CNN模型,通过这个模型的学习,读者可以对目标检测任务有一个基本的认识,对于基本的网络结构原理有一定的了解。

另外,本书对于当前比较热门的生成对抗网络和强化学习也有一定的介绍,方便读者拓宽视野,掌握前沿方向。适合人工智能、机器学习、深度学习方面的人员阅读,也适合其他IT方面从业者,另外,还可以作为相关专业的教材。

目录

  • 版权信息
  • 内容提要
  • 前言
  • 第1章 数字识别
  • 1.1 MNIST数据集
  • 1.1.1 MNIST数据集简介
  • 1.1.2 导入数据集
  • 1.2 构建模型
  • 1.2.1 定义神经网络
  • 1.2.2 前向传播
  • 1.2.3 计算损失
  • 1.2.4 反向传播与更新参数
  • 1.3 开始训练
  • 1.4 观察模型预测结果
  • 1.5 总结
  • 第2章 ImageNet图像识别模型与CIFAR-10
  • 2.1 图像分类器
  • 2.1.1 CIFAR-10数据集简介
  • 2.1.2 加载数据集
  • 2.1.3 定义卷积神经网络
  • 2.1.4 定义损失函数和优化器
  • 2.1.5 训练网络
  • 2.1.6 使用测试集评估
  • 2.1.7 使用GPU加速
  • 2.2 ImageNet和图像识别模型
  • 2.2.1 ImageNet
  • 2.2.2 基于ImageNet的图像识别模型
  • 2.3 总结
  • 第3章 从零构建图像分类模型
  • 3.1 预训练模型原理
  • 3.1.1 状态字典
  • 3.1.2 通过设备保存
  • 3.2 加载ImageNet预训练模型
  • 3.3 准备数据
  • 3.3.1 加载数据集
  • 3.3.2 使用matplotlib可视化数据
  • 3.4 开始训练
  • 3.5 使用torchvision微调模型
  • 3.6 观察模型预测结果
  • 3.7 固定模型的参数
  • 3.8 使用tensorbord可视化训练情况
  • 3.9 总结
  • 第4章 文本生成
  • 4.1 RNN原理及其结构
  • 4.1.1 经典RNN结构
  • 4.1.2 N VS 1式RNN结构
  • 4.1.3 1 VS N RNN结构
  • 4.1.4 N VS M RNN结构
  • 4.2 明确任务
  • 4.3 准备数据
  • 4.4 构建模型
  • 4.5 开始训练
  • 4.6 观察交互结果
  • 4.7 总结
  • 第5章 目标检测和实例分割
  • 5.1 快速了解目标检测
  • 5.1.1 评估方法
  • 5.1.2 直观方法
  • 5.2 R-CNN系列模型的原理
  • 5.2.1 R-CNN原理
  • 5.2.2 Fast R-CNN原理
  • 5.2.3 Faster R-CNN原理
  • 5.2.4 Mask R-CNN原理
  • 5.3 使用torchvison微调模型
  • 5.3.1 使用Penn-Fudan数据集
  • 5.3.2 搭建目标检测模型
  • 5.3.3 下载必要的工具文件
  • 5.3.4 改造模型以适应新的数据集
  • 5.3.5 调用工具文件训练模型
  • 5.3.6 评估和测试模型
  • 5.4 总结
  • 第6章 人脸检测与识别
  • 6.1 模型介绍
  • 6.2 facenet-pytorch库
  • 6.3 预训练模型
  • 6.4 总结
  • 第7章 利用DCGAN生成假脸
  • 7.1 GAN及其原理
  • 7.2 DCGAN简介
  • 7.3 实现一个假脸生成模型
  • 7.3.1 模型设定
  • 7.3.2 人脸数据集
  • 7.3.3 实现生成器
  • 7.3.4 实现判别器
  • 7.3.5 损失函数和优化器
  • 7.4 训练假脸生成模型
  • 7.4.1 训练的整体流程
  • 7.4.2 更新判别器
  • 7.4.3 更新生成器
  • 7.5 可视化结果
  • 7.6 总结
  • 第8章 pix2pix为黑白图片上色
  • 8.1 带约束的生成对抗网络
  • 8.2 pix2pix的原理
  • 8.3 实现图到图翻译模型
  • 8.3.1 Facade数据集
  • 8.3.2 U-Net作为生成器
  • 8.3.3 PatchGAN作为判别器
  • 8.4 训练判别器和生成器
  • 8.4.1 更新判别器
  • 8.4.2 更新生成器
  • 8.5 根据立面结构生成房屋图片
  • 8.6 黑白图片自动上色
  • 8.7 总结
  • 第9章 Neural-Style与图像风格迁移
  • 9.1 理解图像风格迁移算法
  • 9.1.1 传统风格迁移
  • 9.1.2 Neural-Style算法原理
  • 9.2 加载图像
  • 9.3 定义损失模块
  • 9.3.1 内容损失模块
  • 9.3.2 风格损失模块
  • 9.4 导入预训练模型
  • 9.5 使用L-BFGS进行梯度下降
  • 9.6 训练自己的风格
  • 9.7 总结
  • 第10章 对抗机器学习和欺骗模型
  • 10.1 模型的潜在威胁
  • 10.2 快速梯度符号法
  • 10.3 攻击一个图像识别模型
  • 10.3.1 被攻击的模型
  • 10.3.2 FGSM算法
  • 10.4 开始攻击
  • 10.4.1 攻击流程
  • 10.4.2 攻击结果
  • 10.5 总结
  • 第11章 word2vec与词向量
  • 11.1 词嵌入作用
  • 11.2 词嵌入原理
  • 11.2.1 CBOW实现
  • 11.2.2 Skip-Gram实现
  • 11.3 在PyTorch中实现词嵌入
  • 11.3.1 数据准备
  • 11.3.2 构造模型
  • 11.3.3 训练模型
  • 11.3.4 可视化
  • 11.4 工具包word2vec结合中文词嵌入
  • 11.4.1 word2vec使用
  • 11.4.2 中文词嵌入
  • 11.5 总结
  • 第12章 命名实体识别
  • 12.1 NER背景介绍
  • 12.2 LSTM
  • 12.2.1 LSTM原理
  • 12.2.2 在PyTorch中使用LSTM
  • 12.3 CRF
  • 12.3.1 发射分数和转移分数
  • 12.3.2 损失函数
  • 12.3.3 预测
  • 12.4 构建模型
  • 12.4.1 模型结构
  • 12.4.2 模型代码
  • 12.5 开始训练
  • 12.6 总结
  • 第13章 基于AG_NEWS的文本分类
  • 13.1 数据预处理
  • 13.1.1 原始数据迭代器
  • 13.1.2 数据处理
  • 13.2 准备模型
  • 13.2.1 初始化一个实例
  • 13.2.2 定义函数训练和评估模型
  • 13.3 训练模型
  • 13.4 评估和测试模型
  • 13.4.1 评估模型
  • 13.4.2 随机新闻测试
  • 13.5 总结
  • 第14章 基于BERT的文本分类
  • 14.1 transformers数据处理
  • 14.1.1 加载预训练的序列化工具
  • 14.1.2 基本用法
  • 14.2 微调预训练模型
  • 14.2.1 数据集介绍和处理
  • 14.2.2 导入模型
  • 14.2.3 定义训练器
  • 14.3 总结
  • 第15章 文本翻译
  • 15.1 Seq2Seq网络
  • 15.2 注意力机制Attention
  • 15.3 准备数据
  • 15.4 构建模型
  • 15.4.1 编码器
  • 15.4.2 解码器
  • 15.4.3 注意力机制解码器
  • 15.5 开始训练
  • 15.5.1 准备训练数据
  • 15.5.2 训练技巧Teacher Forcing
  • 15.5.3 训练模型
  • 15.6 观察模型效果
  • 15.6.1 评估模型
  • 15.6.2 可视化注意力
  • 15.7 总结
  • 第16章 文本阅读理解
  • 16.1 阅读理解任务介绍
  • 16.2 模型实现
  • 16.3 总结
  • 第17章 为图像添加文本描述
  • 17.1 编码器-解码器架构
  • 17.2 Image Caption模型
  • 17.2.1 神经图像字幕生成器
  • 17.2.2 加入注意力机制
  • 17.3 中文图像字幕数据集
  • 17.3.1 数据结构
  • 17.3.2 构建词典
  • 17.3.3 构建数据集
  • 17.4 构建Image Caption模型
  • 17.4.1 编码器
  • 17.4.2 解码器
  • 17.4.3 注意力层
  • 17.5 模型训练和评估
  • 17.5.1 训练编码器和解码器
  • 17.5.2 计算BLEU指标
  • 17.5.3 可视化结果
  • 17.6 总结
  • 第18章 聊天机器人
  • 18.1 准备数据
  • 18.1.1 数据预处理
  • 18.1.2 为模型准备数据
  • 18.2 构建模型
  • 18.2.1 Encoder
  • 18.2.2 Decoder
  • 18.3 训练准备
  • 18.4 评估模型
  • 18.5 训练模型
  • 18.6 总结
  • 第19章 CycleGAN模型
  • 19.1 CycleGAN模型架构
  • 19.2 CycleGAN模型的应用
  • 19.2.1 安装依赖包
  • 19.2.2 准备数据集
  • 19.2.3 预训练模型
  • 19.2.4 训练模型
  • 19.2.5 测试模型
  • 19.2.6 结果可视化
  • 19.3 总结
  • 第20章 图像超分辨率与ESPCN
  • 20.1 理解图像超分辨率和ESPCN算法
  • 20.1.1 图像超分辨率背景介绍
  • 20.1.2 ESPCN算法原理
  • 20.2 制作数据集
  • 20.3 构建ESPCN模型
  • 20.4 训练ESPCN模型
  • 20.5 测试ESPCN模型
  • 20.6 总结
  • 第21章 强化学习
  • 21.1 任务准备
  • 21.1.1 任务说明
  • 21.1.2 需要的包
  • 21.2 记忆重放
  • 21.3 DQN算法
  • 21.3.1 Q-Learning算法
  • 21.3.2 Q-Net模型
  • 21.3.3 抓取输入图像(获得状态表示)
  • 21.3.4 超参数设置和工具函数
  • 21.3.5 训练模型
  • 21.4 总结
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

北京大学出版社

北京大学出版社是在1979年,经国家出版事业管理局同意,教育部批准成立的,恢复了北京大学出版社建制。北京大学出版社依靠北大雄厚的教学、科研力量,同时积极争取国内外专家学者的合作支持,出版了大量高水平、高质量、适应多层次需要的优秀高等教育教材。 北大出版社注意对教材进行全面追踪,捕捉信息,及时修订,以跟上各学科的最新发展,反映该学科研究的最新成果,保持北大版教材的领先地位。