展开全部

主编推荐语

本书是Facebook于2017年初在机器学习和科学计算工具Torch的基础上,针对Python语言发布的一个全新的机器学习工具包。

内容简介

本书详细讲解了如何使用前沿的深度学习库PyTorch来解决所有的深度学习需求,读者可使用PyTorch训练神经网络,提升其速度和灵活性,以及如何在不同的场景中应用神经网络。本书涵盖了ResNET、Inception、DenseNet等在内的高级神经网络架构以及它们的应用案例。本书适合数据分析师、数据科学家,以及对深度学习感兴趣且希望在系统中执行深度学习最佳做法的读者阅读。

目录

  • 版权信息
  • 内容提要
  • 作者简介
  • 献辞
  • 致谢
  • 审稿人简介
  • 译者简介
  • 译稿审稿人简介
  • 前言
  • 目标读者
  • 本书内容
  • 最大化利用本书
  • 资源与支持
  • 配套资源
  • 提交勘误
  • 与我们联系
  • 关于异步社区和异步图书
  • 第1章 PyTorch与深度学习
  • 1.1 人工智能
  • 1.1.1 人工智能发展史
  • 1.2 机器学习
  • 1.2.1 机器学习实例
  • 1.3 深度学习
  • 1.3.1 深度学习的应用
  • 1.3.2 深度学习的浮夸宣传
  • 1.3.3 深度学习发展史
  • 1.3.4 为何是现在
  • 1.3.5 硬件可用性
  • 1.3.6 数据和算法
  • 1.3.7 深度学习框架
  • 1.4 小结
  • 第2章 神经网络的构成
  • 2.1 安装PyTorch
  • 2.2 实现第一个神经网络
  • 2.2.1 准备数据
  • 2.2.2 为神经网络创建数据
  • 2.2.3 加载数据
  • 2.3 小结
  • 第3章 深入了解神经网络
  • 3.1 详解神经网络的组成部分
  • 3.1.1 层——神经网络的基本组成
  • 3.1.2 非线性激活函数
  • 3.1.3 PyTorch中的非线性激活函数
  • 3.1.4 使用深度学习进行图像分类
  • 3.2 小结
  • 第4章 机器学习基础
  • 4.1 三类机器学习问题
  • 4.1.1 有监督学习
  • 4.1.2 无监督学习
  • 4.1.3 强化学习
  • 4.2 机器学习术语
  • 4.3 评估机器学习模型
  • 4.3.1 训练、验证和测试集的拆分
  • 4.4 数据预处理与特征工程
  • 4.4.1 向量化
  • 4.4.2 值归一化
  • 4.4.3 处理缺失值
  • 4.4.4 特征工程
  • 4.5 过拟合与欠拟合
  • 4.5.1 获取更多数据
  • 4.5.2 缩小网络规模
  • 4.5.3 应用权重正则化
  • 4.5.4 应用dropout
  • 4.5.5 欠拟合
  • 4.6 机器学习项目的工作流
  • 4.6.1 问题定义与数据集创建
  • 4.6.2 成功的衡量标准
  • 4.6.3 评估协议
  • 4.6.4 准备数据
  • 4.6.5 模型基线
  • 4.6.6 大到过拟合的模型
  • 4.6.7 应用正则化
  • 4.6.8 学习率选择策略
  • 4.7 小结
  • 第5章 深度学习之计算机视觉
  • 5.1 神经网络简介
  • 5.1.1 MNIST——获取数据
  • 5.2 从零开始构建CNN模型
  • 5.2.1 Conv2d
  • 5.2.2 池化
  • 5.2.3 非线性激活——ReLU
  • 5.2.4 视图
  • 5.2.5 训练模型
  • 5.2.6 狗猫分类问题——从零开始构建CNN
  • 5.2.7 利用迁移学习对狗猫分类
  • 5.3 创建和探索VGG16模型
  • 5.3.1 冻结层
  • 5.3.2 微调VGG16模型
  • 5.3.3 训练VGG16模型
  • 5.4 计算预卷积特征
  • 5.5 理解CNN模型如何学习
  • 5.5.1 可视化中间层的输出
  • 5.6 CNN层的可视化权重
  • 5.7 小结
  • 第6章 序列数据和文本的深度学习
  • 6.1 使用文本数据
  • 6.1.1 分词
  • 6.1.2 向量化
  • 6.2 通过构建情感分类器训练词向量
  • 6.2.1 下载IMDB数据并对文本分词
  • 6.2.2 构建词表
  • 6.2.3 生成向量的批数据
  • 6.2.4 使用词向量创建网络模型
  • 6.2.5 训练模型
  • 6.3 使用预训练的词向量
  • 6.3.1 下载词向量
  • 6.3.2 在模型中加载词向量
  • 6.3.3 冻结embedding层权重
  • 6.4 递归神经网络(RNN)
  • 6.4.1 通过示例了解RNN如何使用
  • 6.5 LSTM
  • 6.5.1 长期依赖
  • 6.5.2 LSTM网络
  • 6.6 基于序列数据的卷积网络
  • 6.6.1 理解序列化数据的一维卷积
  • 6.7 小结
  • 第7章 生成网络
  • 7.1 神经风格迁移
  • 7.1.1 加载数据
  • 7.1.2 创建VGG模型
  • 7.1.3 内容损失
  • 7.1.4 风格损失
  • 7.1.5 提取损失
  • 7.1.6 为网络层创建损失函数
  • 7.1.7 创建优化器
  • 7.1.8 训练
  • 7.2 生成对抗网络(GAN)
  • 7.3 深度卷机生成对抗网络
  • 7.3.1 定义生成网络
  • 7.3.2 定义判别网络
  • 7.3.3 定义损失函数和优化器
  • 7.3.4 训练判别网络
  • 7.3.5 训练生成网络
  • 7.3.6 训练整个网络
  • 7.3.7 检验生成的图片
  • 7.4 语言建模
  • 7.4.1 准备数据
  • 7.4.2 生成批数据
  • 7.4.3 定义基于LSTM的模型
  • 7.4.4 定义训练和评估函数
  • 7.4.5 训练模型
  • 7.5 小结
  • 第8章 现代网络架构
  • 8.1 现代网络架构
  • 8.1.1 ResNet
  • 8.1.2 Inception
  • 8.2 稠密连接卷积网络(DenseNet)
  • 8.2.1 DenseBlock
  • 8.2.2 DenseLayer
  • 8.3 模型集成
  • 8.3.1 创建模型
  • 8.3.2 提取图片特征
  • 8.3.3 创建自定义数据集和数据加载器
  • 8.3.4 创建集成模型
  • 8.3.5 训练和验证模型
  • 8.4 encoder-decoder架构
  • 8.4.1 编码器
  • 8.4.2 解码器
  • 8.5 小结
  • 第9章 未来走向
  • 9.1 未来走向
  • 9.2 回顾
  • 9.3 有趣的创意应用
  • 9.3.1 对象检测
  • 9.3.2 图像分割
  • 9.3.3 PyTorch中的OpenNMT
  • 9.3.4 Allen NLP
  • 9.3.5 fast.ai——神经网络不再神秘
  • 9.3.6 Open Neural Network Exchange
  • 9.4 如何跟上前沿
  • 9.5 小结
展开全部

评分及书评

评分不足
2个评分

出版方

人民邮电出版社

人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。