展开全部

主编推荐语

一本系统介绍深度学习技术及开源框架PyTorch的入门书。

内容简介

书中通过大量案例介绍了PyTorch的使用方法、神经网络的搭建、常用神经网络(如卷积神经网络、循环神经网络)的实现,以及实用的深度学习技术,包括迁移学习、对抗生成学习、深度强化学习、图神经网络等。

本书基于PyTorch1.6.0,对全书代码进行了全面更新,同时增加了Transformer、BERT、图神经网络等热门深度学习技术的讲解,更具实用性和时效性。

目录

  • 版权信息
  • 推荐序
  • 前言
  • 作者简介
  • 第1章 深度学习简介
  • 1.1 深度学习与人工智能
  • 1.2 深度学习的历史渊源
  • 1.2.1 从感知机到人工神经网络
  • 1.2.2 深度学习时代
  • 1.2.3 巨头之间的角逐
  • 1.3 深度学习的影响因素
  • 1.3.1 大数据
  • 1.3.2 深度网络架构
  • 1.3.3 GPU
  • 1.4 深度学习为什么如此成功
  • 1.4.1 特征学习
  • 1.4.2 迁移学习
  • 1.5 小结
  • 第2章 PyTorch简介
  • 2.1 PyTorch安装
  • 2.2 初识PyTorch
  • 2.2.1 与Python完美融合
  • 2.2.2 张量计算
  • 2.2.3 动态计算图
  • 2.3 PyTorch实例:预测房价
  • 2.3.1 准备数据
  • 2.3.2 设计模型
  • 2.3.3 训练
  • 2.3.4 预测
  • 2.3.5 术语汇总
  • 2.4 小结
  • 第3章 单车预测器
  • 3.1 共享单车的烦恼
  • 3.2 单车预测器1.0
  • 3.2.1 人工神经网络简介
  • 3.2.2 人工神经元
  • 3.2.3 两个隐含神经元
  • 3.2.4 训练与运行
  • 3.2.5 失败的神经预测器
  • 3.2.6 过拟合
  • 3.3 单车预测器2.0
  • 3.3.1 数据的预处理过程
  • 3.3.2 构建神经网络
  • 3.3.3 测试神经网络
  • 3.4 剖析神经网络Neu
  • 3.5 小结
  • 3.6 Q&A
  • 第4章 机器也懂感情
  • 4.1 神经网络分类器
  • 4.1.1 如何用神经网络做分类
  • 4.1.2 分类问题的损失函数
  • 4.2 词袋模型分类器
  • 4.2.1 词袋模型简介
  • 4.2.2 搭建简单文本分类器
  • 4.3 程序实现
  • 4.3.1 数据处理
  • 4.3.2 文本数据向量化
  • 4.3.3 划分数据集
  • 4.3.4 建立神经网络
  • 4.4 运行结果
  • 4.5 剖析神经网络
  • 4.6 小结
  • 4.7 Q&A
  • 第5章 手写数字识别器
  • 5.1 什么是卷积神经网络
  • 5.1.1 手写数字识别任务的卷积神经网络及运算过程
  • 5.1.2 卷积运算
  • 5.1.3 池化运算
  • 5.1.4 立体卷积核
  • 5.1.5 超参数与参数
  • 5.1.6 其他说明
  • 5.2 手写数字识别器
  • 5.2.1 数据准备
  • 5.2.2 构建网络
  • 5.2.3 运行模型
  • 5.2.4 测试模型
  • 5.3 剖析卷积神经网络
  • 5.3.1 第一层卷积核与特征图
  • 5.3.2 第二层卷积核与特征图
  • 5.3.3 卷积神经网络的健壮性实验
  • 5.4 小结
  • 5.5 Q&A
  • 5.6 扩展阅读
  • 第6章 手写数字加法机
  • 6.1 什么是迁移学习
  • 6.1.1 迁移学习的由来
  • 6.1.2 迁移学习的分类
  • 6.1.3 迁移学习的意义
  • 6.1.4 如何用神经网络实现迁移学习
  • 6.2 应用案例:迁移学习如何抗击贫困
  • 6.2.1 背景介绍
  • 6.2.2 方法探寻
  • 6.2.3 迁移学习方法
  • 6.3 蚂蚁还是蜜蜂:迁移大型卷积神经网络
  • 6.3.1 任务描述与初步尝试
  • 6.3.2 ResNet与模型迁移
  • 6.3.3 代码实现
  • 6.3.4 结果分析
  • 6.3.5 更多的模型与数据
  • 6.4 手写数字加法机
  • 6.4.1 网络架构
  • 6.4.2 代码实现
  • 6.4.3 训练与测试
  • 6.4.4 结果
  • 6.4.5 大规模实验
  • 6.5 小结
  • 6.6 实践项目:迁移与效率
  • 第7章 你自己的Prisma
  • 7.1 什么是风格迁移
  • 7.1.1 什么是风格
  • 7.1.2 风格迁移的含义
  • 7.2 风格迁移技术发展简史
  • 7.3 神经网络风格迁移
  • 7.3.1 神经网络风格迁移的优势
  • 7.3.2 神经网络风格迁移的基本思想
  • 7.3.3 卷积神经网络的选取
  • 7.3.4 内容损失
  • 7.3.5 风格损失
  • 7.3.6 风格损失原理分析
  • 7.3.7 损失函数与优化
  • 7.4 神经网络风格迁移实战
  • 7.4.1 准备工作
  • 7.4.2 建立风格迁移网络
  • 7.4.3 风格迁移训练
  • 7.5 小结
  • 7.6 扩展阅读
  • 第8章 人工智能造假术
  • 8.1 反卷积与图像生成
  • 8.1.1 卷积神经网络回顾
  • 8.1.2 反卷积运算
  • 8.1.3 反池化过程
  • 8.1.4 反卷积与分数步伐
  • 8.1.5 输出图像尺寸公式
  • 8.1.6 批正则化技术
  • 8.2 图像生成实验1——最小均方误差模型
  • 8.2.1 模型思路
  • 8.2.2 代码实现
  • 8.2.3 运行结果
  • 8.3 图像生成实验2——生成器—识别器模型
  • 8.3.1 生成器—识别器模型的实现
  • 8.3.2 对抗样本
  • 8.4 图像生成实验3——GAN
  • 8.4.1 GAN的总体架构
  • 8.4.2 程序实现
  • 8.4.3 结果展示
  • 8.5 小结
  • 8.6 Q&A
  • 8.7 扩展阅读
  • 第9章 词汇的星空
  • 9.1 词向量技术介绍
  • 9.1.1 初识词向量
  • 9.1.2 传统编码方式
  • 9.2 NPLM:神经概率语言模型
  • 9.2.1 NPLM的基本思想
  • 9.2.2 NPLM的运作过程详解
  • 9.2.3 读取NPLM中的词向量
  • 9.2.4 NPLM的编码实现
  • 9.2.5 运行结果
  • 9.2.6 NPLM的总结与局限
  • 9.3 Word2Vec
  • 9.3.1 CBOW模型和Skip-gram模型的结构
  • 9.3.2 层次归一化指数函数
  • 9.3.3 负采样
  • 9.3.4 总结及分析
  • 9.4 Word2Vec的应用
  • 9.4.1 在自己的语料库上训练Word2Vec词向量
  • 9.4.2 调用现成的词向量
  • 9.4.3 女人-男人=皇后-国王
  • 9.4.4 使用向量的空间位置进行词对词翻译
  • 9.4.5 Word2Vec小结
  • 9.5 小结
  • 9.6 Q&A
  • 第10章 深度网络LSTM作曲机
  • 10.1 序列生成问题
  • 10.2 RNN与LSTM
  • 10.2.1 RNN
  • 10.2.2 LSTM
  • 10.3 简单01序列的学习问题
  • 10.3.1 RNN的序列学习
  • 10.3.2 LSTM的序列学习
  • 10.4 LSTM作曲机
  • 10.4.1 MIDI文件
  • 10.4.2 数据准备
  • 10.4.3 模型结构
  • 10.4.4 代码实现
  • 10.5 小结
  • 10.6 Q&A
  • 10.7 扩展阅读
  • 第11章 神经机器翻译机
  • 11.1 机器翻译简介
  • 11.1.1 基于规则的机器翻译技术
  • 11.1.2 统计机器翻译
  • 11.1.3 神经机器翻译
  • 11.1.4 关于Zero-shot翻译
  • 11.2 编码—解码模型
  • 11.2.1 编码—解码模型总体架构
  • 11.2.2 编码器
  • 11.2.3 解码器
  • 11.2.4 损失函数
  • 11.2.5 编码—解码模型归纳
  • 11.2.6 编码—解码模型的效果
  • 11.3 注意力机制
  • 11.3.1 神经机器翻译中的注意力
  • 11.3.2 注意力网络
  • 11.4 更多改进
  • 11.4.1 GRU的结构
  • 11.4.2 双向GRU的应用
  • 11.5 神经机器翻译机的编码实现
  • 11.5.1 神经网络的构建
  • 11.5.2 神经网络的训练
  • 11.5.3 测试神经机器翻译机
  • 11.5.4 结果展示
  • 11.6 更多改进
  • 11.6.1 集束搜索算法
  • 11.6.2 BLEU:对翻译结果的评估方法
  • 11.6.3 对编码—解码模型的改进
  • 11.7 广义的翻译
  • 11.7.1 广义翻译机
  • 11.7.2 广义翻译的应用场景
  • 11.8 Q&A
  • 第12章 更强的机器翻译模型
  • 12.1 Transformer概述
  • 12.1.1 编码—解码模型回顾
  • 12.1.2 Transformer全景概览
  • 12.1.3 神奇的自注意力
  • 12.2 Atoken旅行记
  • 12.2.1 奇怪的序号牌
  • 12.2.2 分身之门
  • 12.2.3 新朋友
  • 12.3 Transformer部件详解
  • 12.3.1 词嵌入与位置嵌入
  • 12.3.2 自注意力模块计算详解
  • 12.3.3 自注意力层的矩阵计算
  • 12.3.4 残差连接与层归一化
  • 12.3.5 逐点计算的前向网络层
  • 12.3.6 解码器中的自注意力
  • 12.3.7 解码器的输出层
  • 12.4 动手训练一个Transformer翻译模型
  • 12.4.1 翻译模型中输入单位的粒度
  • 12.4.2 模型定义
  • 12.4.3 模型训练
  • 12.4.4 Transformer相关开源库
  • 12.5 小结
  • 第13章 学习跨任务的语言知识
  • 13.1 语言模型简要回顾
  • 13.2 预训练Transformer详解
  • 13.2.1 深入了解GPT
  • 13.2.2 深入了解BERT
  • 13.2.3 模型微调
  • 13.2.4 模型表现
  • 13.3 单句分类:BERT句子分类实战
  • 13.4 后BERT时代
  • 13.5 小结
  • 第14章 人体姿态识别
  • 14.1 图网络及图论基础
  • 14.1.1 图的基本概念
  • 14.1.2 什么是图网络
  • 14.1.3 图网络的基本任务和应用场景
  • 14.2 图卷积网络
  • 14.2.1 GCN的工作原理
  • 14.2.2 打开GCN的黑箱
  • 14.2.3 从社团划分任务来理解GCN
  • 14.3 实战:使用GCN识别人体姿态
  • 14.3.1 数据来源与预处理
  • 14.3.2 代码实现
  • 14.4 小结
  • 第15章 AI游戏高手
  • 15.1 强化学习简介
  • 15.1.1 强化学习的要素
  • 15.1.2 强化学习的应用场景
  • 15.1.3 强化学习的分类
  • 15.2 深度Q学习算法
  • 15.2.1 Q学习算法
  • 15.2.2 DQN算法
  • 15.2.3 DQN在雅达利游戏上的表现
  • 15.3 DQN玩Flappy Bird的PyTorch实现
  • 15.3.1 Flappy Bird的PyGame实现
  • 15.3.2 DQN的PyTorch实现
  • 15.4 小结
  • 15.5 通用人工智能还有多远
  • 15.6 Q&A
  • 15.7 扩展阅读
展开全部

评分及书评

评分不足
1个评分

出版方

人民邮电出版社

人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。