展开全部

主编推荐语

Google Cloud工程总监撰写,从工程实践角度,全面介绍现代神经网络、人工智能和深度学习技术。

内容简介

本书简洁且全面地介绍了现代神经网络、人工智能和深度学习技术,专门为软件工程师和数据科学家设计。

第1章逐步介绍神经网络的基础知识。
第2章比较TensorFlow 1.x和TensorFlow 2.0编程模型。
第3章重点介绍回归。
第4章介绍卷积神经网络及其在图像处理中的应用。
第5章讨论了CNN在图像、视频、音频和文本处理方面的高级应用。
第6章重点介绍生成对抗网络。
第7章介绍词嵌入。
第8章介绍基本嵌入方法的各种扩展。
第9章介绍自动编码器。
第10章深入研究无监督学习模型。
第11章重点介绍强化学习。
第12章介绍AutoML。
第13章介绍用于移动设备和物联网的TensorFlow的基础知识。
第14章讨论了云环境以及如何利用它来训练和部署模型。
第15章讨论了深度学习背后的数学。
第16章介绍TPU。

本书内容丰富,易于理解,示例具有代表性,是学习深度学习的绝佳指南。

目录

  • 版权信息
  • 前言
  • 作者简介
  • 审校者简介
  • 第1章 基于TensorFlow 2.0的神经网络基础
  • 1.1 TensorFlow是什么
  • 1.2 Keras是什么
  • 1.3 TensorFlow 2.0有哪些重要的改动
  • 1.4 神经网络概述
  • 1.5 感知器
  • 1.6 多层感知器
  • 1.6.1 感知器训练的问题及对策
  • 1.6.2 激活函数——sigmoid函数
  • 1.6.3 激活函数——tanh函数
  • 1.6.4 激活函数——ReLU函数
  • 1.6.5 两个拓展激活函数——ELU函数和LeakyReLU函数
  • 1.6.6 激活函数总结
  • 1.6.7 神经网络到底是什么
  • 1.7 示例——识别手写数字
  • 1.7.1 独热编码
  • 1.7.2 在TensorFlow 2.0中定义一个简单的神经网络
  • 1.7.3 运行一个简单的TensorFlow 2.0神经网络并建立测试基线
  • 1.7.4 使用隐藏层改进TensorFlow 2.0的简单神经网络
  • 1.7.5 利用随机失活进一步改进TensorFlow 2.0的简单神经网络
  • 1.7.6 测试TensorFlow 2.0的不同优化器
  • 1.7.7 增加epoch数
  • 1.7.8 控制优化器学习率
  • 1.7.9 增加内部隐藏神经元的数量
  • 1.7.10 增加批量计算的大小
  • 1.7.11 手写图识别实验总结
  • 1.8 正则化
  • 1.8.1 采用正则化以避免过拟合
  • 1.8.2 理解批量归一化
  • 1.9 Google Colab
  • 1.10 情感分析
  • 1.11 超参数调谐和AutoML
  • 1.12 预测输出
  • 1.13 反向传播的实用概述
  • 1.14 我们学到了什么
  • 1.15 迈向深度学习方式
  • 1.16 参考文献
  • 第2章 TensorFlow 1.x与2.x
  • 2.1 理解TensorFlow 1.x
  • 2.1.1 TensorFlow 1.x计算图程序结构
  • 2.1.2 常量、变量和占位符的使用
  • 2.1.3 操作对象示例
  • 2.1.4 TensorFlow 2.x中的TensorFlow 1.x示例
  • 2.2 理解TensorFlow 2.x
  • 2.2.1 即刻执行
  • 2.2.2 AutoGraph
  • 2.2.3 Keras API的三种编程模型
  • 2.2.4 回调
  • 2.2.5 保存模型和权重
  • 2.2.6 使用tf.data.datasets训练
  • 2.2.7 tf.keras还是估算器
  • 2.2.8 不规则张量
  • 2.2.9 自定义训练
  • 2.2.10 TensorFlow 2.x中的分布式训练
  • 2.2.11 命名空间的改动
  • 2.2.12 1.x至2.x的转换
  • 2.2.13 高效使用TensorFlow 2.x
  • 2.3 TensorFlow 2.x生态系统
  • 2.4 Keras还是tf.keras
  • 2.5 小结
  • 第3章 回归
  • 3.1 什么是回归
  • 3.2 使用线性回归进行预测
  • 3.2.1 简单线性回归
  • 3.2.2 多线性回归
  • 3.2.3 多元线性回归
  • 3.3 TensorFlow Estimator
  • 3.3.1 特征列
  • 3.3.2 输入函数
  • 3.3.3 使用TensorFlow Estimator API的MNIST
  • 3.4 使用线性回归预测房价
  • 3.5 分类任务和决策边界
  • 3.5.1 logistic回归
  • 3.5.2 MNIST数据集上的logistic回归
  • 3.6 小结
  • 3.7 参考文献
  • 第4章 卷积神经网络
  • 4.1 深度卷积神经网络
  • 4.1.1 局部感受野
  • 4.1.2 共享权重和偏差
  • 4.1.3 数学示例
  • 4.1.4 TensorFlow 2.x中的ConvNets
  • 4.1.5 池化层
  • 4.2 DCNN的示例——LeNet
  • 4.2.1 TensorFlow 2.0中的LeNet代码
  • 4.2.2 理解深度学习的力量
  • 4.3 通过深度学习识别CIFAR-10图像
  • 4.3.1 用更深的网络提高CIFAR-10的性能
  • 4.3.2 用数据增强提高CIFAR-10的性能
  • 4.3.3 基于CIFAR-10预测
  • 4.4 用于大规模图像识别的超深度卷积网络
  • 4.4.1 基于VGG16神经网络识别猫
  • 4.4.2 使用tf.keras内置的VGG16 Net模块
  • 4.4.3 复用预建深度学习模型以提取特征
  • 4.5 小结
  • 4.6 参考文献
  • 第5章 高级卷积神经网络
  • 5.1 计算机视觉
  • 5.1.1 复杂任务的CNN组合
  • 5.1.2 用tf.keras-estimator模型对Fashion-MNIST分类
  • 5.1.3 在GPU上运行Fashion-MNIST tf.keras-estimator模型
  • 5.1.4 用于迁移学习的Deep Inception-v3 Net
  • 5.1.5 迁移学习:分类人和马
  • 5.1.6 基于tf.keras和TensorFlow Hub的Application Zoo
  • 5.1.7 其他CNN架构
  • 5.1.8 回答有关图像的问题
  • 5.1.9 风格迁移
  • 5.1.10 创建DeepDream网络
  • 5.1.11 查看深度网络学到的内容
  • 5.2 视频
  • 5.3 文本文件
  • 5.4 音频和音乐
  • 5.5 卷积运算小结
  • 5.5.1 基本卷积神经网络
  • 5.5.2 空洞卷积
  • 5.5.3 可分离卷积
  • 5.5.4 深度卷积
  • 5.5.5 深度可分离卷积
  • 5.6 胶囊网络
  • 5.6.1 CNN有什么问题
  • 5.6.2 Capsule网络有什么新功能
  • 5.7 小结
  • 5.8 参考文献
  • 第6章 生成对抗网络
  • 6.1 什么是GAN
  • 6.2 深度卷积GAN
  • 6.3 一些有趣的GAN架构
  • 6.3.1 SRGAN
  • 6.3.2 CycleGAN
  • 6.3.3 InfoGAN
  • 6.4 GAN的出色应用
  • 6.5 TensorFlow 2.0中的CycleGAN
  • 6.6 小结
  • 6.7 参考文献
  • 第7章 词嵌入
  • 7.1 词嵌入的起源和基本原理
  • 7.2 分布式表示
  • 7.3 静态嵌入
  • 7.3.1 Word2Vec
  • 7.3.2 GloVe
  • 7.4 使用gensim创建自己的嵌入
  • 7.5 使用gensim探索嵌入空间
  • 7.6 使用词嵌入检测垃圾短信
  • 7.6.1 获取数据
  • 7.6.2 准备待用数据
  • 7.6.3 构建嵌入矩阵
  • 7.6.4 定义垃圾短信分类器
  • 7.6.5 训练和评估模型
  • 7.6.6 运行垃圾短信检测器
  • 7.7 神经嵌入
  • 7.7.1 Item2Vec
  • 7.7.2 node2vec
  • 7.8 字符和子词嵌入
  • 7.9 动态嵌入
  • 7.10 句子和段落嵌入
  • 7.11 基于语言模型的嵌入
  • 7.11.1 使用BERT作为特征提取器
  • 7.11.2 微调BERT
  • 7.11.3 基于BERT命令行的分类
  • 7.11.4 把BERT作为自己网络的一部分
  • 7.12 小结
  • 7.13 参考文献
  • 第8章 循环神经网络
  • 8.1 基本的RNN单元
  • 8.1.1 时间反向传播
  • 8.1.2 梯度消失和梯度爆炸
  • 8.2 RNN单元变体
  • 8.2.1 长短期记忆网络
  • 8.2.2 门控循环单元
  • 8.2.3 peephole LSTM
  • 8.3 RNN变体
  • 8.3.1 双向RNN
  • 8.3.2 有状态RNN
  • 8.4 RNN拓扑结构
  • 8.4.1 一对多——学习生成文本
  • 8.4.2 多对一——情感分析
  • 8.4.3 多对多——POS标记
  • 8.5 编码器-解码器架构
  • 8.6 注意力机制
  • 8.7 Transformer架构
  • 8.8 小结
  • 8.9 参考文献
  • 第9章 自编码器
  • 9.1 自编码器简介
  • 9.2 香草自编码器
  • 9.2.1 TensorFlow Keras层——定义自定义层
  • 9.2.2 使用自编码器重构手写数字
  • 9.3 稀疏自编码器
  • 9.4 降噪自编码器
  • 9.5 堆栈自编码器
  • 9.5.1 用于去除图像噪声的卷积自编码器
  • 9.5.2 Keras自编码器示例——句子向量
  • 9.6 小结
  • 9.7 参考文献
  • 第10章 无监督学习
  • 10.1 主成分分析
  • 10.1.1 MNIST数据集上的PCA
  • 10.1.2 TensorFlow嵌入式API
  • 10.1.3 k-均值聚类
  • 10.1.4 TensorFlow 2.0中的k-均值
  • 10.1.5 k-均值的变体
  • 10.2 自组织图
  • 10.3 受限玻尔兹曼机
  • 10.3.1 使用RBM重建图像
  • 10.3.2 深度信念网络
  • 10.4 变分自编码器
  • 10.5 小结
  • 10.6 参考文献
  • 第11章 强化学习
  • 11.1 概述
  • 11.1.1 强化学习术语
  • 11.1.2 深度强化学习算法
  • 11.1.3 强化学习的成功案例
  • 11.2 OpenAI Gym概述
  • 11.3 深度Q网络
  • 11.3.1 CartPole的深度Q网络
  • 11.3.2 深度Q网络玩Atari游戏
  • 11.3.3 DQN变体
  • 11.4 深度确定性策略梯度
  • 11.5 小结
  • 11.6 参考文献
  • 第12章 TensorFlow和云服务
  • 12.1 云端深度学习
  • 12.1.1 微软Azure
  • 12.1.2 AWS
  • 12.1.3 谷歌云平台
  • 12.1.4 IBM云
  • 12.2 云端虚拟机
  • 12.2.1 亚马逊上的EC2
  • 12.2.2 谷歌云平台上的计算实例
  • 12.2.3 微软Azure上的虚拟机
  • 12.3 云端的Jupyter Notebook
  • 12.3.1 SageMaker
  • 12.3.2 Google Colaboratory
  • 12.3.3 微软Azure Notebook
  • 12.4 用于生产的TensorFlow Extended
  • 12.4.1 TFX管道
  • 12.4.2 TFX管道组件
  • 12.4.3 TFX库
  • 12.5 TensorFlow企业版
  • 12.6 小结
  • 12.7 参考文献
  • 第13章 用于移动设备和物联网的TensorFlow以及TensorFlow.js
  • 13.1 TensorFlow Mobile
  • 13.2 TensorFlow Lite
  • 13.2.1 量化
  • 13.2.2 FlatBuffer
  • 13.2.3 Mobile转换器
  • 13.2.4 移动优化解析器
  • 13.2.5 支持平台
  • 13.2.6 架构
  • 13.2.7 使用TensorFlow Lite
  • 13.2.8 应用程序的一个通用示例
  • 13.2.9 使用GPU和加速器
  • 13.2.10 应用程序示例
  • 13.3 TensorFlow Lite中的预训练模型
  • 13.3.1 图片分类
  • 13.3.2 物体检测
  • 13.3.3 姿势估计
  • 13.3.4 智能回复
  • 13.3.5 分割
  • 13.3.6 风格迁移
  • 13.3.7 文本分类
  • 13.3.8 问答
  • 13.3.9 使用移动GPU的注意事项
  • 13.4 边缘联合学习概述
  • 13.5 TensorFlow.js
  • 13.5.1 普通TensorFlow.js
  • 13.5.2 模型转换
  • 13.5.3 预训练模型
  • 13.5.4 Node.js
  • 13.6 小结
  • 13.7 参考文献
  • 第14章 AutoML简介
  • 14.1 什么是AutoML
  • 14.2 实现AutoML
  • 14.3 自动数据准备
  • 14.4 自动特征工程
  • 14.5 自动模型生成
  • 14.6 AutoKeras
  • 14.7 Google Cloud AutoML
  • 14.7.1 使用Cloud AutoML——Tables解决方案
  • 14.7.2 使用Cloud AutoML——Vision解决方案
  • 14.7.3 使用Cloud AutoML——Text Classfication解决方案
  • 14.7.4 使用Cloud AutoML——Translation解决方案
  • 14.7.5 使用Cloud AutoML——Video Intelligence Classification解决方案
  • 14.7.6 费用
  • 14.8 将Google AutoML集成到Kaggle
  • 14.9 小结
  • 14.10 参考文献
  • 第15章 深度学习相关的数学知识
  • 15.1 历史
  • 15.2 数学工具
  • 15.2.1 随处可见的导数和梯度
  • 15.2.2 梯度下降
  • 15.2.3 链式法则
  • 15.2.4 一些微分规则
  • 15.2.5 矩阵运算
  • 15.3 激活函数
  • 15.3.1 sigmoid函数的导数
  • 15.3.2 tanh函数的导数
  • 15.3.3 ReLU函数的导数
  • 15.4 反向传播
  • 15.4.1 前向步骤
  • 15.4.2 反向步骤
  • 15.4.3 反向传播的局限性
  • 15.4.4 交叉熵及其导数
  • 15.4.5 批量梯度下降、随机梯度下降和小批量
  • 15.5 关于反向传播和卷积的思考
  • 15.6 关于反向传播和RNN的思考
  • 15.7 关于TensorFlow和自动区分的说明
  • 15.8 小结
  • 15.9 参考文献
  • 第16章 张量处理单元
  • 16.1 CPU、GPU与TPU
  • 16.1.1 CPU和GPU
  • 16.1.2 TPU
  • 16.2 三代TPU和边缘TPU
  • 16.2.1 第一代TPU
  • 16.2.2 第二代TPU
  • 16.2.3 第三代TPU
  • 16.2.4 边缘TPU
  • 16.3 TPU性能
  • 16.4 如何在Colab中使用TPU
  • 16.4.1 检查TPU是否可用
  • 16.4.2 用tf.data加载数据
  • 16.4.3 建立模型并将其加载到TPU中
  • 16.5 使用预训练的TPU模型
  • 16.6 使用TensorFlow 2.1和夜间版
  • 16.7 小结
  • 16.8 参考文献
展开全部

评分及书评

评分不足
1个评分

出版方

机械工业出版社有限公司

机械工业出版社是全国优秀出版社,自1952年成立以来,坚持为科技、为教育服务,以向行业、向学校提供优质、权威的精神产品为宗旨,以“服务社会和人民群众需求,传播社会主义先进文化”为己任,产业结构不断完善,已由传统的图书出版向着图书、期刊、电子出版物、音像制品、电子商务一体化延伸,现已发展为多领域、多学科的大型综合性出版社,涉及机械、电工电子、汽车、计算机、经济管理、建筑、ELT、科普以及教材、教辅等领域。