展开全部

主编推荐语

本书由TensorLayer作者领衔,一线AI研究员和工程师撰写,涵盖深度学习全面知识与实践。

内容简介

本书由TensorLayer作者领衔写作,TensorLayer社区众包完成,作者全部来自一线人工智能研究员和工程师,内容不仅覆盖了传统书籍都有的多层网络、卷积网络、递归网络及增强学习等,还着重讲解了生成对抗网络、学习方法和实践经验,配有若干产品级别的实例。者将会从零学会目前最新深度学习,以及使用TL实现各种应用。

目录

  • 封面
  • 版权页
  • 前言
  • 本书作者
  • 致谢
  • 如何阅读本书
  • 目录
  • 1 深度学习简介
  • 1.1 人工智能、机器学习和深度学习
  • 1.1.1 引言
  • 1.1.2 人工智能、机器学习和深度学习三者的关系
  • 1.2 神经网络
  • 1.2.1 感知器
  • 1.2.2 激活函数
  • 1.2.3 损失函数
  • 1.2.4 梯度下降和随机梯度下降
  • 1.2.5 反向传播算法简述
  • 1.2.6 其他神经网络
  • 1.3 学习方法建议
  • 1.3.1 网络资源
  • 1.3.2 TensorFlow官方深度学习教程
  • 1.3.3 开源社区
  • 1.4 TensorLayer
  • 1.4.1 深度学习框架概况
  • 1.4.2 TensorLayer概括
  • 1.4.3 实验环境配置
  • 2 多层感知器
  • 2.1 McCulloch-Pitts神经元模型
  • 2.1.1 人工神经网络到底能干什么?到底在干什么
  • 2.1.2 什么是激活函数?什么是偏值
  • 2.2 感知器
  • 2.2.1 什么是线性分类器
  • 2.2.2 线性分类器有什么优缺点
  • 2.2.3 感知器实例和异或问题(XOR问题)
  • 2.3 多层感知器
  • 2.4 实现手写数字分类
  • 2.5 过拟合
  • 2.5.1 什么是过拟合
  • 2.5.2 Dropout
  • 2.5.3 批规范化
  • 2.5.4 L1、L2和其他正则化方法
  • 2.5.5 Lp正则化的图形化解释
  • 2.6 再实现手写数字分类
  • 2.6.1 数据迭代器
  • 2.6.2 通过 all_drop启动与关闭Dropout
  • 2.6.3 通过参数共享实现训练测试切换
  • 3 自编码器
  • 3.1 稀疏性
  • 3.2 稀疏自编码器
  • 3.3 实现手写数字特征提取
  • 3.4 降噪自编码器
  • 3.5 再实现手写数字特征提取
  • 3.6 堆栈式自编码器及其实现
  • 4 卷积神经网络
  • 4.1 卷积原理
  • 4.1.1 卷积操作
  • 4.1.2 张量
  • 4.1.3 卷积层
  • 4.1.4 池化层
  • 4.1.5 全连接层
  • 4.2 经典任务
  • 4.2.1 图像分类
  • 4.2.2 目标检测
  • 4.2.3 语义分割
  • 4.2.4 实例分割
  • 4.3 经典卷积网络
  • 4.3.1 LeNet
  • 4.3.2 AlexNet
  • 4.3.3 VGGNet
  • 4.3.4 GoogLeNet
  • 4.3.5 ResNet
  • 4.4 实现手写数字分类
  • 4.5 数据增强与规范化
  • 4.5.1 数据增强
  • 4.5.2 批规范化
  • 4.5.3 局部响应归一化
  • 4.6 实现CIFAR10分类
  • 4.6.1 方法1:tl.prepro做数据增强
  • 4.6.2 方法2:TFRecord做数据增强
  • 4.7 反卷积神经网络
  • 5 词的向量表达
  • 5.1 目的与原理
  • 5.2 Word2Vec
  • 5.2.1 简介
  • 5.2.2 Continuous Bag-Of-Words(CBOW)模型
  • 5.2.3 Skip Gram(SG)模型
  • 5.2.4 Hierarchical Softmax
  • 5.2.5 Negative Sampling
  • 5.3 实现Word2Vec
  • 5.3.1 简介
  • 5.3.2 实现
  • 5.4 重载预训练矩阵
  • 6 递归神经网络
  • 6.1 为什么需要它
  • 6.2 不同的RNNs
  • 6.2.1 简单递归网络
  • 6.2.2 回音网络
  • 6.3 长短期记忆
  • 6.3.1 LSTM概括
  • 6.3.2 LSTM详解
  • 6.3.3 LSTM变种
  • 6.4 实现生成句子
  • 6.4.1 模型简介
  • 6.4.2 数据迭代
  • 6.4.3 损失函数和更新公式
  • 6.4.4 生成句子及Top K采样
  • 6.4.5 接下来还可以做什么
  • 7 深度增强学习
  • 7.1 增强学习
  • 7.1.1 概述
  • 7.1.2 基于价值的增强学习
  • 7.1.3 基于策略的增强学习
  • 7.1.4 基于模型的增强学习
  • 7.2 深度增强学习
  • 7.2.1 深度Q学习
  • 7.2.2 深度策略网络
  • 7.3 更多参考资料
  • 7.3.1 书籍
  • 7.3.2 在线课程
  • 8 生成对抗网络
  • 8.1 何为生成对抗网络
  • 8.2 深度卷积对抗生成网络
  • 8.3 实现人脸生成
  • 8.4 还能做什么
  • 9 高级实现技巧
  • 9.1 与其他框架对接
  • 9.1.1 无参数层
  • 9.1.2 有参数层
  • 9.2 自定义层
  • 9.2.1 无参数层
  • 9.2.2 有参数层
  • 9.3 建立词汇表
  • 9.4 补零与序列长度
  • 9.5 动态递归神经网络
  • 9.6 实用小技巧
  • 9.6.1 屏蔽显示
  • 9.6.2 参数名字前缀
  • 9.6.3 获取特定参数
  • 9.6.4 获取特定层输出
  • 10 实例一:使用预训练卷积网络
  • 10.1 高维特征表达
  • 10.2 VGG网络
  • 10.3 连接TF-Slim
  • 11 实例二:图像语义分割及其医学图像应用
  • 11.1 图像语义分割概述
  • 11.1.1 传统图像分割算法简介
  • 11.1.2 损失函数与评估指标
  • 11.2 医学图像分割概述
  • 11.3 全卷积神经网络和U-Net网络结构
  • 11.4 医学图像应用:实现脑部肿瘤分割
  • 11.4.1 数据与数据增强
  • 11.4.2 U-Net网络
  • 11.4.3 损失函数
  • 11.4.4 开始训练
  • 12 实例三:由文本生成图像
  • 12.1 条件生成对抗网络之GAN-CLS
  • 12.2 实现句子生成花朵图片
  • 13 实例四:超高分辨率复原
  • 13.1 什么是超高分辨率复原
  • 13.2 网络结构
  • 13.3 联合损失函数
  • 13.4 训练网络
  • 13.5 使用测试
  • 14 实例五:文本反垃圾
  • 14.1 任务场景
  • 14.2 网络结构
  • 14.3 词的向量表示
  • 14.4 Dynamic RNN分类器
  • 14.5 训练网络
  • 14.5.1 训练词向量
  • 14.5.2 文本的表示
  • 14.5.3 训练分类器
  • 14.5.4 模型导出
  • 14.6 TensorFlow Serving部署
  • 14.7 客户端调用
  • 14.8 其他常用方法
  • 中英对照表及其缩写
  • 参考文献
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

电子工业出版社

电子工业出版社成立于1982年10月,是国务院独资、工信部直属的中央级科技与教育出版社,是专业的信息技术知识集成和服务提供商。经过三十多年的建设与发展,已成为一家以科技和教育出版、期刊、网络、行业支撑服务、数字出版、软件研发、软科学研究、职业培训和教育为核心业务的现代知识服务集团。出版物内容涵盖了电子信息技术的各个分支及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。