展开全部

主编推荐语

详解PyTorch深度学习框架用法。

内容简介

PyTorch是一个开源的机器学习框架,它提供了动态计算图的支持,让用户能够自定义和训练自己的神经网络,目前是机器学习领域中最受欢迎的框架之一。本书基于PyTorch 2.0,详细介绍深度学习的基本理论、算法和应用案例,配套示例源代码、PPT课件。

本书共分15章,内容包括PyTorch概述、开发环境搭建、基于PyTorch的MNIST分类实战、深度学习理论基础、MNIST分类实战、数据处理与模型可视化、基于PyTorch卷积层的分类实战、PyTorch数据处理与模型可视化、实战ResNet卷积网络模型、有趣的Word Embedding、基于循环神经网络的中文情感分类实战、自然语言处理的编码器等。

本书适合深度学习初学者、PyTorch初学者、PyTorch深度学习项目开发人员学习,也可作为高等院校或高职高专学校计算机技术、人工智能、智能科学与技术、数据科学与大数据技术等相关专业的教材。

目录

  • 版权信息
  • 内容简介
  • 作者简介
  • 前言
  • 第1章 PyTorch 2.0
  • 1.1 燎原之势的人工智能
  • 1.1.1 从无到有的人工智能
  • 1.1.2 深度学习与人工智能
  • 1.1.3 应用深度学习解决实际问题
  • 1.1.4 深度学习技术的优势和挑战
  • 1.2 为什么选择PyTorch 2.0
  • 1.2.1 PyTorch的前世今生
  • 1.2.2 更快、更优、更具编译支持——PyTorch 2.0更好的未来
  • 1.2.3 PyTorch 2.0学习路径——从零基础到项目实战
  • 1.3 本章小结
  • 第2章 Hello PyTorch 2.0
  • 2.1 安装Python
  • 2.1.1 Miniconda的下载与安装
  • 2.1.2 PyCharm的下载与安装
  • 2.1.3 Python代码小练习:计算Softmax函数
  • 2.2 安装PyTorch 2.0
  • 2.2.1 Nvidia 10/20/30/40系列显卡选择的GPU版本
  • 2.2.2 PyTorch 2.0 GPU Nvidia运行库的安装——以CUDA 11.7+cuDNN 8.2.0为例
  • 2.2.3 PyTorch 2.0小练习:Hello PyTorch
  • 2.3 实战:基于PyTorch 2.0的图像去噪
  • 2.3.1 MNIST数据集的准备
  • 2.3.2 MNIST数据集的特征和标签介绍
  • 2.3.3 模型的准备和介绍
  • 2.3.4 模型的损失函数与优化函数
  • 2.3.5 基于深度学习的模型训练
  • 2.4 本章小结
  • 第3章 基于PyTorch的MNIST分类实战
  • 3.1 实战:基于PyTorch的MNIST手写体分类
  • 3.1.1 数据图像的获取与标签的说明
  • 3.1.2 模型的准备(多层感知机)
  • 3.1.3 损失函数的表示与计算
  • 3.1.4 基于PyTorch的手写体识别的实现
  • 3.2 PyTorch 2.0模型结构输出与可视化
  • 3.2.1 查看模型结构和参数信息
  • 3.2.2 基于netron库的PyTorch 2.0模型可视化
  • 3.2.3 更多的PyTorch 2.0模型可视化工具
  • 3.3 本章小结
  • 第4章 深度学习的理论基础
  • 4.1 反向传播神经网络的历史
  • 4.2 反向传播神经网络两个基础算法详解
  • 4.2.1 最小二乘法详解
  • 4.2.2 道士下山的故事——梯度下降算法
  • 4.2.3 最小二乘法的梯度下降算法以及Python实现
  • 4.3 反馈神经网络反向传播算法介绍
  • 4.3.1 深度学习基础
  • 4.3.2 链式求导法则
  • 4.3.3 反馈神经网络的原理与公式推导
  • 4.3.4 反馈神经网络原理的激活函数
  • 4.3.5 反馈神经网络原理的Python实现
  • 4.4 本章小结
  • 第5章 基于PyTorch卷积层的MNIST分类实战
  • 5.1 卷积运算的基本概念
  • 5.1.1 基本卷积运算示例
  • 5.1.2 PyTorch 2.0中卷积函数实现详解
  • 5.1.3 池化运算
  • 5.1.4 Softmax激活函数
  • 5.1.5 卷积神经网络的原理
  • 5.2 实战:基于卷积的MNIST手写体分类
  • 5.2.1 数据准备
  • 5.2.2 模型设计
  • 5.2.3 基于卷积的MNIST分类模型
  • 5.3 PyTorch 2.0的深度可分离膨胀卷积详解
  • 5.3.1 深度可分离卷积的定义
  • 5.3.2 深度的定义以及不同计算层待训练参数的比较
  • 5.3.3 膨胀卷积详解
  • 5.4 实战:基于深度可分离膨胀卷积的MNIST手写体识别
  • 5.5 本章小结
  • 第6章 PyTorch数据处理与模型可视化
  • 6.1 用于自定义数据集的torch.utils.data工具箱使用详解
  • 6.1.1 使用torch.utils.data.Dataset封装自定义数据集
  • 6.1.2 改变数据类型的Dataset类中transform的使用
  • 6.1.3 批量输出数据的DataLoader类详解
  • 6.2 基于tensorboardX的训练可视化展示
  • 6.2.1 tensorboardX的安装与简介
  • 6.2.2 tensorboardX可视化组件的使用
  • 6.2.3 tensorboardX对模型训练过程的展示
  • 6.3 本章小结
  • 第7章 从冠军开始
  • 7.1 ResNet基础原理与程序设计基础
  • 7.1.1 ResNet诞生的背景
  • 7.1.2 不要重复造轮子——PyTorch 2.0中的模块工具
  • 7.1.3 ResNet残差模块的实现
  • 7.1.4 ResNet网络的实现
  • 7.2 实战ResNet:CIFAR-10数据集分类
  • 7.2.1 CIFAR-10数据集简介
  • 7.2.2 基于ResNet的CIFAR-10数据集分类
  • 7.3 本章小结
  • 第8章 梅西-阿根廷+巴西=?
  • 8.1 文本数据处理
  • 8.1.1 数据集介绍和数据清洗
  • 8.1.2 停用词的使用
  • 8.1.3 词向量训练模型Word2Vec使用介绍
  • 8.1.4 文本主题的提取:基于TF-IDF
  • 8.1.5 文本主题的提取:基于TextRank
  • 8.2 更多的Word Embedding方法
  • 8.2.1 FastText的原理与基础算法
  • 8.2.2 FastText训练以及与PyTorch 2.0的协同使用
  • 8.2.3 使用其他预训练参数生成PyTorch 2.0词嵌入矩阵(中文)
  • 8.3 针对文本的卷积神经网络模型简介——字符卷积
  • 8.3.1 字符(非单词)文本的处理
  • 8.3.2 卷积神经网络文本分类模型的实现——Conv1d(一维卷积)
  • 8.4 针对文本的卷积神经网络模型简介——词卷积
  • 8.4.1 单词的文本处理
  • 8.4.2 卷积神经网络文本分类模型的实现——Conv2d(二维卷积)
  • 8.5 使用卷积实现文本分类的补充内容
  • 8.6 本章小结
  • 第9章 基于循环神经网络的中文情感分类实战
  • 9.1 实战:循环神经网络与情感分类
  • 9.1.1 基于循环神经网络的中文情感分类准备
  • 9.1.2 基于循环神经网络的中文情感分类实现
  • 9.2 循环神经网络理论讲解
  • 9.2.1 什么是GRU
  • 9.2.2 单向不行,那就双向
  • 9.3 本章小结
  • 第10章 从0起步
  • 10.1 编码器的核心
  • 10.1.1 输入层——初始词向量层和位置编码器层
  • 10.1.2 自注意力层(重点)
  • 10.1.3 ticks和LayerNormalization
  • 10.1.4 多头自注意力
  • 10.2 编码器的实现
  • 10.2.1 前馈层的实现
  • 10.2.2 编码器的实现
  • 10.3 实战编码器:汉字拼音转换模型
  • 10.3.1 汉字拼音数据集处理
  • 10.3.2 汉字拼音转换模型的确定
  • 10.3.3 模型训练部分的编写
  • 10.4 本章小结
  • 第11章 站在巨人肩膀上的预训练模型BERT
  • 11.1 预训练模型BERT
  • 11.1.1 BERT的基本架构与应用
  • 11.1.2 BERT预训练任务与Fine-Tuning
  • 11.2 实战BERT:中文文本分类
  • 11.2.1 使用Hugging Face获取BERT预训练模型
  • 11.2.2 BERT实战文本分类
  • 11.3 更多的预训练模型
  • 11.4 本章小结
  • 第12章 从1起步
  • 12.1 解码器的核心
  • 12.1.1 解码器的输入和交互注意力层的掩码
  • 12.1.2 为什么通过掩码操作能够减少干扰
  • 12.1.3 解码器的输出(移位训练方法)
  • 12.1.4 解码器的实现
  • 12.2 实战解码器:汉字拼音翻译模型
  • 12.2.1 数据集的获取与处理
  • 12.2.2 翻译模型
  • 12.2.3 汉字拼音模型的训练
  • 12.2.4 汉字拼音模型的使用
  • 12.3 本章小结
  • 第13章 我也可以成为马斯克
  • 13.1 实战:基于强化学习的火箭回收
  • 13.1.1 火箭回收技术基本运行环境介绍
  • 13.1.2 火箭回收参数介绍
  • 13.1.3 基于强化学习的火箭回收实战
  • 13.1.4 强化学习的基本内容
  • 13.2 强化学习的基本算法
  • 13.2.1 PPO算法简介
  • 13.2.2 函数使用说明
  • 13.2.3 一学就会的TD-Error理论介绍
  • 13.2.4 基于TD-Error的结果修正
  • 13.2.5 对于奖励的倒序构成的说明
  • 13.3 本章小结
  • 第14章 创建你自己的小精灵
  • 14.1 语音识别的理论基础
  • 14.2 语音识别的数据获取与准备
  • 14.2.1 Speech Commands简介与数据说明
  • 14.2.2 语音识别编码器模块与代码实现
  • 14.3 实战:PyTorch 2.0语音识别
  • 14.3.1 基于PyTorch 2.0的语音识别模型
  • 14.3.2 基于PyTorch 2.0的语音识别实现
  • 14.4 本章小结
  • 第15章 基于PyTorch的人脸识别实战
  • 15.1 人脸识别数据集的建立
  • 15.1.1 LFW数据集简介
  • 15.1.2 Dlib库简介
  • 15.1.3 OpenCV简介
  • 15.1.4 使用Dlib检测人脸位置
  • 15.1.5 使用Dlib和OpenCV建立自己的人脸检测数据集
  • 15.1.6 基于人脸定位制作适配深度学习的人脸识别数据集
  • 15.2 实战:基于深度学习的人脸识别模型
  • 15.2.1 人脸识别的基本模型Siamese Model
  • 15.2.2 基于PyTorch 2.0的Siamese Model的实现
  • 15.2.3 人脸识别的Contrastive Loss详解与实现
  • 15.2.4 基于PyTorch 2.0的人脸识别模型
  • 15.3 本章小结
展开全部

评分及书评

评分不足
1个评分

出版方

清华大学出版社

清华大学出版社成立于1980年6月,是由教育部主管、清华大学主办的综合出版单位。植根于“清华”这座久负盛名的高等学府,秉承清华人“自强不息,厚德载物”的人文精神,清华大学出版社在短短二十多年的时间里,迅速成长起来。清华大学出版社始终坚持弘扬科技文化产业、服务科教兴国战略的出版方向,把出版高等学校教学用书和科技图书作为主要任务,并为促进学术交流、繁荣出版事业设立了多项出版基金,逐渐形成了以出版高水平的教材和学术专著为主的鲜明特色,在教育出版领域树立了强势品牌。