人工智能
类型
可以朗读
语音朗读
88千字
字数
2022-12-01
发行日期
展开全部
主编推荐语
PyTorch教程,简单入门项目,实用模型,适合人工智能、机器学习从业者。
内容简介
PyTorch是基于Torch库的开源机器学习库,它主要由Meta(原Facebook)的人工智能研究实验室开发,在自然语言处理和计算机视觉领域都具有广泛的应用。
本书介绍了简单且经典的入门项目,方便快速上手,如MNIST数字识别,读者在完成项目的过程中可以了解数据集、模型和训练等基础概念。还介绍了一些实用且经典的模型,如R-CNN模型,通过这个模型的学习,读者可以对目标检测任务有一个基本的认识,对于基本的网络结构原理有一定的了解。
另外,本书对于当前比较热门的生成对抗网络和强化学习也有一定的介绍,方便读者拓宽视野,掌握前沿方向。适合人工智能、机器学习、深度学习方面的人员阅读,也适合其他IT方面从业者,另外,还可以作为相关专业的教材。
目录
- 版权信息
- 内容提要
- 前言
- 第1章 数字识别
- 1.1 MNIST数据集
- 1.1.1 MNIST数据集简介
- 1.1.2 导入数据集
- 1.2 构建模型
- 1.2.1 定义神经网络
- 1.2.2 前向传播
- 1.2.3 计算损失
- 1.2.4 反向传播与更新参数
- 1.3 开始训练
- 1.4 观察模型预测结果
- 1.5 总结
- 第2章 ImageNet图像识别模型与CIFAR-10
- 2.1 图像分类器
- 2.1.1 CIFAR-10数据集简介
- 2.1.2 加载数据集
- 2.1.3 定义卷积神经网络
- 2.1.4 定义损失函数和优化器
- 2.1.5 训练网络
- 2.1.6 使用测试集评估
- 2.1.7 使用GPU加速
- 2.2 ImageNet和图像识别模型
- 2.2.1 ImageNet
- 2.2.2 基于ImageNet的图像识别模型
- 2.3 总结
- 第3章 从零构建图像分类模型
- 3.1 预训练模型原理
- 3.1.1 状态字典
- 3.1.2 通过设备保存
- 3.2 加载ImageNet预训练模型
- 3.3 准备数据
- 3.3.1 加载数据集
- 3.3.2 使用matplotlib可视化数据
- 3.4 开始训练
- 3.5 使用torchvision微调模型
- 3.6 观察模型预测结果
- 3.7 固定模型的参数
- 3.8 使用tensorbord可视化训练情况
- 3.9 总结
- 第4章 文本生成
- 4.1 RNN原理及其结构
- 4.1.1 经典RNN结构
- 4.1.2 N VS 1式RNN结构
- 4.1.3 1 VS N RNN结构
- 4.1.4 N VS M RNN结构
- 4.2 明确任务
- 4.3 准备数据
- 4.4 构建模型
- 4.5 开始训练
- 4.6 观察交互结果
- 4.7 总结
- 第5章 目标检测和实例分割
- 5.1 快速了解目标检测
- 5.1.1 评估方法
- 5.1.2 直观方法
- 5.2 R-CNN系列模型的原理
- 5.2.1 R-CNN原理
- 5.2.2 Fast R-CNN原理
- 5.2.3 Faster R-CNN原理
- 5.2.4 Mask R-CNN原理
- 5.3 使用torchvison微调模型
- 5.3.1 使用Penn-Fudan数据集
- 5.3.2 搭建目标检测模型
- 5.3.3 下载必要的工具文件
- 5.3.4 改造模型以适应新的数据集
- 5.3.5 调用工具文件训练模型
- 5.3.6 评估和测试模型
- 5.4 总结
- 第6章 人脸检测与识别
- 6.1 模型介绍
- 6.2 facenet-pytorch库
- 6.3 预训练模型
- 6.4 总结
- 第7章 利用DCGAN生成假脸
- 7.1 GAN及其原理
- 7.2 DCGAN简介
- 7.3 实现一个假脸生成模型
- 7.3.1 模型设定
- 7.3.2 人脸数据集
- 7.3.3 实现生成器
- 7.3.4 实现判别器
- 7.3.5 损失函数和优化器
- 7.4 训练假脸生成模型
- 7.4.1 训练的整体流程
- 7.4.2 更新判别器
- 7.4.3 更新生成器
- 7.5 可视化结果
- 7.6 总结
- 第8章 pix2pix为黑白图片上色
- 8.1 带约束的生成对抗网络
- 8.2 pix2pix的原理
- 8.3 实现图到图翻译模型
- 8.3.1 Facade数据集
- 8.3.2 U-Net作为生成器
- 8.3.3 PatchGAN作为判别器
- 8.4 训练判别器和生成器
- 8.4.1 更新判别器
- 8.4.2 更新生成器
- 8.5 根据立面结构生成房屋图片
- 8.6 黑白图片自动上色
- 8.7 总结
- 第9章 Neural-Style与图像风格迁移
- 9.1 理解图像风格迁移算法
- 9.1.1 传统风格迁移
- 9.1.2 Neural-Style算法原理
- 9.2 加载图像
- 9.3 定义损失模块
- 9.3.1 内容损失模块
- 9.3.2 风格损失模块
- 9.4 导入预训练模型
- 9.5 使用L-BFGS进行梯度下降
- 9.6 训练自己的风格
- 9.7 总结
- 第10章 对抗机器学习和欺骗模型
- 10.1 模型的潜在威胁
- 10.2 快速梯度符号法
- 10.3 攻击一个图像识别模型
- 10.3.1 被攻击的模型
- 10.3.2 FGSM算法
- 10.4 开始攻击
- 10.4.1 攻击流程
- 10.4.2 攻击结果
- 10.5 总结
- 第11章 word2vec与词向量
- 11.1 词嵌入作用
- 11.2 词嵌入原理
- 11.2.1 CBOW实现
- 11.2.2 Skip-Gram实现
- 11.3 在PyTorch中实现词嵌入
- 11.3.1 数据准备
- 11.3.2 构造模型
- 11.3.3 训练模型
- 11.3.4 可视化
- 11.4 工具包word2vec结合中文词嵌入
- 11.4.1 word2vec使用
- 11.4.2 中文词嵌入
- 11.5 总结
- 第12章 命名实体识别
- 12.1 NER背景介绍
- 12.2 LSTM
- 12.2.1 LSTM原理
- 12.2.2 在PyTorch中使用LSTM
- 12.3 CRF
- 12.3.1 发射分数和转移分数
- 12.3.2 损失函数
- 12.3.3 预测
- 12.4 构建模型
- 12.4.1 模型结构
- 12.4.2 模型代码
- 12.5 开始训练
- 12.6 总结
- 第13章 基于AG_NEWS的文本分类
- 13.1 数据预处理
- 13.1.1 原始数据迭代器
- 13.1.2 数据处理
- 13.2 准备模型
- 13.2.1 初始化一个实例
- 13.2.2 定义函数训练和评估模型
- 13.3 训练模型
- 13.4 评估和测试模型
- 13.4.1 评估模型
- 13.4.2 随机新闻测试
- 13.5 总结
- 第14章 基于BERT的文本分类
- 14.1 transformers数据处理
- 14.1.1 加载预训练的序列化工具
- 14.1.2 基本用法
- 14.2 微调预训练模型
- 14.2.1 数据集介绍和处理
- 14.2.2 导入模型
- 14.2.3 定义训练器
- 14.3 总结
- 第15章 文本翻译
- 15.1 Seq2Seq网络
- 15.2 注意力机制Attention
- 15.3 准备数据
- 15.4 构建模型
- 15.4.1 编码器
- 15.4.2 解码器
- 15.4.3 注意力机制解码器
- 15.5 开始训练
- 15.5.1 准备训练数据
- 15.5.2 训练技巧Teacher Forcing
- 15.5.3 训练模型
- 15.6 观察模型效果
- 15.6.1 评估模型
- 15.6.2 可视化注意力
- 15.7 总结
- 第16章 文本阅读理解
- 16.1 阅读理解任务介绍
- 16.2 模型实现
- 16.3 总结
- 第17章 为图像添加文本描述
- 17.1 编码器-解码器架构
- 17.2 Image Caption模型
- 17.2.1 神经图像字幕生成器
- 17.2.2 加入注意力机制
- 17.3 中文图像字幕数据集
- 17.3.1 数据结构
- 17.3.2 构建词典
- 17.3.3 构建数据集
- 17.4 构建Image Caption模型
- 17.4.1 编码器
- 17.4.2 解码器
- 17.4.3 注意力层
- 17.5 模型训练和评估
- 17.5.1 训练编码器和解码器
- 17.5.2 计算BLEU指标
- 17.5.3 可视化结果
- 17.6 总结
- 第18章 聊天机器人
- 18.1 准备数据
- 18.1.1 数据预处理
- 18.1.2 为模型准备数据
- 18.2 构建模型
- 18.2.1 Encoder
- 18.2.2 Decoder
- 18.3 训练准备
- 18.4 评估模型
- 18.5 训练模型
- 18.6 总结
- 第19章 CycleGAN模型
- 19.1 CycleGAN模型架构
- 19.2 CycleGAN模型的应用
- 19.2.1 安装依赖包
- 19.2.2 准备数据集
- 19.2.3 预训练模型
- 19.2.4 训练模型
- 19.2.5 测试模型
- 19.2.6 结果可视化
- 19.3 总结
- 第20章 图像超分辨率与ESPCN
- 20.1 理解图像超分辨率和ESPCN算法
- 20.1.1 图像超分辨率背景介绍
- 20.1.2 ESPCN算法原理
- 20.2 制作数据集
- 20.3 构建ESPCN模型
- 20.4 训练ESPCN模型
- 20.5 测试ESPCN模型
- 20.6 总结
- 第21章 强化学习
- 21.1 任务准备
- 21.1.1 任务说明
- 21.1.2 需要的包
- 21.2 记忆重放
- 21.3 DQN算法
- 21.3.1 Q-Learning算法
- 21.3.2 Q-Net模型
- 21.3.3 抓取输入图像(获得状态表示)
- 21.3.4 超参数设置和工具函数
- 21.3.5 训练模型
- 21.4 总结
展开全部
出版方
北京大学出版社
北京大学出版社是在1979年,经国家出版事业管理局同意,教育部批准成立的,恢复了北京大学出版社建制。北京大学出版社依靠北大雄厚的教学、科研力量,同时积极争取国内外专家学者的合作支持,出版了大量高水平、高质量、适应多层次需要的优秀高等教育教材。 北大出版社注意对教材进行全面追踪,捕捉信息,及时修订,以跟上各学科的最新发展,反映该学科研究的最新成果,保持北大版教材的领先地位。
