展开全部

主编推荐语

Keras之父、谷歌人工智能研究员弗朗索瓦·肖莱执笔,深度学习领域力作。

内容简介

本书通过直观的解释和丰富的示例帮助你构建深度学习知识体系。作者避免使用数学符号,转而采用Python代码来解释深度学习的核心思想。

全书共计14章,既涵盖了深度学习的基本原理,又体现了这一迅猛发展的领域在近几年里取得的重要进展,包括Transformer架构的原理和示例。

目录

  • 版权信息
  • 版权声明
  • 献词
  • 前言
  • 致谢
  • 关于本书
  • 关于封面
  • 第1章 什么是深度学习
  • 1.1 人工智能、机器学习和深度学习
  • 1.1.1 人工智能
  • 1.1.2 机器学习
  • 1.1.3 从数据中学习规则与表示
  • 1.1.4 深度学习之“深度”
  • 1.1.5 用三张图理解深度学习的工作原理
  • 1.1.6 深度学习已取得的进展
  • 1.1.7 不要相信短期炒作
  • 1.1.8 人工智能的未来
  • 1.2 深度学习之前:机器学习简史
  • 1.2.1 概率建模
  • 1.2.2 早期神经网络
  • 1.2.3 核方法
  • 1.2.4 决策树、随机森林和梯度提升机
  • 1.2.5 到神经网络
  • 1.2.6 深度学习有何不同
  • 1.2.7 机器学习现状
  • 1.3 为什么要用深度学习,为什么是现在
  • 1.3.1 硬件
  • 1.3.2 数据
  • 1.3.3 算法
  • 1.3.4 新一轮投资热潮
  • 1.3.5 深度学习的普及
  • 1.3.6 这种趋势会持续下去吗
  • 第2章 神经网络的数学基础
  • 2.1 初识神经网络
  • 2.2 神经网络的数据表示
  • 2.2.1 标量(0 阶张量)
  • 2.2.2 向量(1 阶张量)
  • 2.2.3 矩阵(2 阶张量)
  • 2.2.4 3 阶张量与更高阶的张量
  • 2.2.5 关键属性
  • 2.2.6 在 NumPy 中操作张量
  • 2.2.7 数据批量的概念
  • 2.2.8 现实世界中的数据张量实例
  • 2.2.9 向量数据
  • 2.2.10 时间序列数据或序列数据
  • 2.2.11 图像数据
  • 2.2.12 视频数据
  • 2.3 神经网络的“齿轮”:张量运算
  • 2.3.1 逐元素运算
  • 2.3.2 广播
  • 2.3.3 张量积
  • 2.3.4 张量变形
  • 2.3.5 张量运算的几何解释
  • 2.3.6 深度学习的几何解释
  • 2.4 神经网络的“引擎”:基于梯度的优化
  • 2.4.1 什么是导数
  • 2.4.2 张量运算的导数:梯度
  • 2.4.3 随机梯度下降
  • 2.4.4 链式求导:反向传播算法
  • 2.5 顾第一个例子
  • 2.5.1 用 TensorFlow 从头开始重新实现第一个例子
  • 2.5.2 完成一次训练步骤
  • 2.5.3 完整的训练循环
  • 2.5.4 评估模型
  • 2.6 本章总结
  • 第3章 Keras和TensorFlow入门
  • 3.1 TensorFlow 简介
  • 3.2 Keras 简介
  • 3.3 Keras 和 TensorFlow 简史
  • 3.4 建立深度学习工作区
  • 3.4.1 Jupyter 笔记本:运行深度学习实验的首选方法
  • 3.4.2 使用 Colaboratory
  • 3.5 TensorFlow 入门
  • 3.5.1 常数张量和变量
  • 3.5.2 张量运算:用 TensorFlow 进行数学运算
  • 3.5.3 重温 GradientTape API
  • 3.5.4 一个端到端的例子:用 TensorFlow 编写线性分类器
  • 3.6 神经网络剖析:了解核心 Keras API
  • 3.6.1 层:深度学习的基础模块
  • 3.6.2 从层到模型
  • 3.6.3 编译步骤:配置学习过程
  • 3.6.4 选择损失函数
  • 3.6.5 理解 fit() 方法
  • 3.6.6 监控验证数据上的损失和指标
  • 3.6.7 推断:在训练后使用模型
  • 3.7 本章总结
  • 第4章 神经网络入门:分类与回归
  • 4.1 影评分类:二分类问题示例
  • 4.1.1 IMDB 数据集
  • 4.1.2 准备数据
  • 4.1.3 构建模型
  • 4.1.4 验证你的方法
  • 4.1.5 利用训练好的模型对新数据进行预测
  • 4.1.6 进一步实验
  • 4.1.7 小结
  • 4.2 新闻分类:多分类问题示例
  • 4.2.1 路透社数据集
  • 4.2.2 准备数据
  • 4.2.3 构建模型
  • 4.2.4 验证你的方法
  • 4.2.5 对新数据进行预测
  • 4.2.6 处理标签和损失的另一种方法
  • 4.2.7 拥有足够大的中间层的重要性
  • 4.2.8 进一步实验
  • 4.2.9 小结
  • 4.3 预测房价:标量归问题示例
  • 4.3.1 波士顿房价数据集
  • 4.3.2 准备数据
  • 4.3.3 构建模型
  • 4.3.4 利用 K 折交叉验证来验证你的方法
  • 4.3.5 对新数据进行预测
  • 4.3.6 小结
  • 4.4 本章总结
  • 第5章 机器学习基础
  • 5.1 泛化:机器学习的目标
  • 5.1.1 欠拟合与过拟合
  • 5.1.2 深度学习泛化的本质
  • 5.2 评估机器学习模型
  • 5.2.1 训练集、验证集和测试集
  • 5.2.2 超越基于常识的基准
  • 5.2.3 模型评估的注意事项
  • 5.3 改进模型拟合
  • 5.3.1 调节关键的梯度下降参数
  • 5.3.2 利用更好的架构预设
  • 5.3.3 提高模型容量
  • 5.4 提高泛化能力
  • 5.4.1 数据集管理
  • 5.4.2 特征工程
  • 5.4.3 提前终止
  • 5.4.4 模型正则化
  • 5.5 本章总结
  • 第6章 机器学习的通用工作流程
  • 6.1 定义任务
  • 6.1.1 定义问题
  • 6.1.2 收集数据集
  • 6.1.3 理解数据
  • 6.1.4 选择衡量成功的指标
  • 6.2 开发模型
  • 6.2.1 准备数据
  • 6.2.2 选择评估方法
  • 6.2.3 超越基准
  • 6.2.4 扩大模型规模:开发一个过拟合的模型
  • 6.2.5 模型正则化与调节超参数
  • 6.3 部署模型
  • 6.3.1 向利益相关者解释你的工作并设定预期
  • 6.3.2 部署推断模型
  • 6.3.3 监控模型在真实环境中的性能
  • 6.3.4 维护模型
  • 6.4 本章总结
  • 第7章 深入Keras
  • 7.1 Keras 工作流程
  • 7.2 构建 Keras 模型的不同方法
  • 7.2.1 序贯模型
  • 7.2.2 函数式 API
  • 7.2.3 模型子类化
  • 7.2.4 混合使用不同的组件
  • 7.2.5 用正确的工具完成工作
  • 7.3 使用内置的训练循环和评估循环
  • 7.3.1 编写自定义指标
  • 7.3.2 使用回调函数
  • 7.3.3 编写自定义回调函数
  • 7.3.4 利用 TensorBoard 进行监控和可视化
  • 7.4 编写自定义的训练循环和评估循环
  • 7.4.1 训练与推断
  • 7.4.2 指标的低阶用法
  • 7.4.3 完整的训练循环和评估循环
  • 7.4.4 利用 tf.function 加快运行速度
  • 7.4.5 在 fit() 中使用自定义训练循环
  • 7.5 本章总结
  • 第8章 计算机视觉深度学习入门
  • 8.1 卷积神经网络入门
  • 8.1.1 卷积运算
  • 8.1.2 最大汇聚运算
  • 8.2 在小型数据集上从头开始训练一个卷积神经网络
  • 8.2.1 深度学习对数据量很小的问题的适用性
  • 8.2.2 下载数据
  • 8.2.3 构建模型
  • 8.2.4 数据预处理
  • 8.2.5 使用数据增强
  • 8.3 使用预训练模型
  • 8.3.1 使用预训练模型做特征提取
  • 8.3.2 微调预训练模型
  • 8.4 本章总结
  • 第9章 计算机视觉深度学习进阶
  • 9.1 三项基本的计算机视觉任务
  • 9.2 图像分割示例
  • 9.3 现代卷积神经网络架构模式
  • 9.3.1 模块化、层次结构和复用
  • 9.3.2 残差连接
  • 9.3.3 批量规范化
  • 9.3.4 深度可分离卷积
  • 9.3.5 综合示例:一个类似 Xception 的迷你模型
  • 9.4 解释卷积神经网络学到的内容
  • 9.4.1 中间激活值的可视化
  • 9.4.2 卷积神经网络滤波器的可视化
  • 9.4.3 类激活热力图的可视化
  • 9.5 本章总结
  • 第10章 深度学习处理时间序列
  • 10.1 不同类型的时间序列任务
  • 10.2 温度预测示例
  • 10.2.1 准备数据
  • 10.2.2 基于常识、不使用机器学习的基准
  • 10.2.3 基本的机器学习模型
  • 10.2.4 一维卷积模型
  • 10.2.5 第一个 RNN 基准
  • 10.3 理解 RNN
  • Keras中的循环层
  • 10.4 RNN 的高级用法
  • 10.4.1 利用循环 dropout 降低过拟合
  • 10.4.2 循环层堆叠
  • 10.4.3 使用双向 RNN
  • 10.4.4 进一步实验
  • 10.5 本章总结
  • 第11章 深度学习处理文本
  • 11.1 自然语言处理概述
  • 11.2 准备文本数据
  • 11.2.1 文本标准化
  • 11.2.2 文本拆分(词元化)
  • 11.2.3 建立词表索引
  • 11.2.4 使用 TextVectorization 层
  • 11.3 表示单词组的两种方法:集合和序列
  • 11.3.1 准备 IMDB 影评数据
  • 11.3.2 将单词作为集合处理:词袋方法
  • 11.3.3 将单词作为序列处理:序列模型方法
  • 11.4 Transformer 架构
  • 11.4.1 理解自注意力
  • 11.4.2 多头注意力
  • 11.4.3 Transformer 编码器
  • 11.4.4 何时使用序列模型而不是词袋模型
  • 11.5 超越文本分类:序列到序列学习
  • 11.5.1 机器翻译示例
  • 11.5.2 RNN 的序列到序列学习
  • 11.5.3 使用 Transformer 进行序列到序列学习
  • 11.6 本章总结
  • 第12章 生成式深度学习
  • 12.1 文本生成
  • 12.1.1 生成式深度学习用于序列生成的简史
  • 12.1.2 如何生成序列数据
  • 12.1.3 采样策略的重要性
  • 12.1.4 用 Keras 实现文本生成
  • 12.1.5 带有可变温度采样的文本生成调函数
  • 12.1.6 小结
  • 12.2 DeepDream
  • 12.2.1 用 Keras 实现 DeepDream
  • 12.2.2 小结
  • 12.3 神经风格迁移
  • 12.3.1 内容损失
  • 12.3.2 风格损失
  • 12.3.3 用 Keras 实现神经风格迁移
  • 12.3.4 小结
  • 12.4 用变分自编码器生成图像
  • 12.4.1 从图像潜在空间中采样
  • 12.4.2 图像编辑的概念向量
  • 12.4.3 变分自编码器
  • 12.4.4 用 Keras 实现变分自编码器
  • 12.4.5 小结
  • 12.5 生成式对抗网络入门
  • 12.5.1 简要实现流程
  • 12.5.2 诸多技巧
  • 12.5.3 CelebA 数据集
  • 12.5.4 判别器
  • 12.5.5 生成器
  • 12.5.6 对抗网络
  • 12.5.7 小结
  • 12.6 本章总结
  • 第13章 适合现实世界的最佳实践
  • 13.1 将模型性能发挥到极致
  • 13.1.1 超参数优化
  • 13.1.2 模型集成
  • 13.2 加速模型训练
  • 13.2.1 使用混合精度加快 GPU 上的训练速度
  • 13.2.2 多 GPU 训练
  • 13.2.3 TPU 训练
  • 13.3 本章总结
  • 第14章 总结
  • 14.1 重点概念顾
  • 14.1.1 人工智能的多种方法
  • 14.1.2 深度学习在机器学习领域中的特殊之处
  • 14.1.3 如何看待深度学习
  • 14.1.4 关键的推动技术
  • 14.1.5 机器学习的通用工作流程
  • 14.1.6 关键网络架构
  • 14.1.7 可能性空间
  • 14.2 深度学习的局限性
  • 14.2.1 将机器学习模型拟人化的风险
  • 14.2.2 自动机与智能体
  • 14.2.3 局部泛化与极端泛化
  • 14.2.4 智能的目的
  • 14.2.5 逐步提高泛化能力
  • 14.3 如何实现更加通用的人工智能
  • 14.3.1 设定正确目标的重要性:捷径法则
  • 14.3.2 新目标
  • 14.4 实现智能:缺失的内容
  • 14.4.1 智能是对抽象类比的敏感性
  • 14.4.2 两种抽象
  • 14.4.3 深度学习所缺失的那一半
  • 14.5 深度学习的未来
  • 14.5.1 模型即程序
  • 14.5.2 将深度学习与程序合成融合
  • 14.5.3 终身学习和模块化子程序复用
  • 14.5.4 长期愿景
  • 14.6 了解快速发展的领域的最新进展
  • 14.6.1 在 Kaggle 上练习解决现实世界的问题
  • 14.6.2 在 arXiv 上了解最新进展
  • 14.6.3 探索 Keras 生态系统
  • 14.7 结束语
  • 作者简介
展开全部

评分及书评

4.7
6个评分
  • 用户头像
    给这本书评了
    5.0
    得到居然有第2版的電子書

    沒想到得到居然有這第 2 版的電子書,離不開得到了這下

      转发
      评论

    出版方

    人民邮电出版社

    人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。