人工智能
类型
可以朗读
语音朗读
185千字
字数
2018-01-01
发行日期
展开全部
主编推荐语
本书由TensorLayer作者领衔,一线AI研究员和工程师撰写,涵盖深度学习全面知识与实践。
内容简介
本书由TensorLayer作者领衔写作,TensorLayer社区众包完成,作者全部来自一线人工智能研究员和工程师,内容不仅覆盖了传统书籍都有的多层网络、卷积网络、递归网络及增强学习等,还着重讲解了生成对抗网络、学习方法和实践经验,配有若干产品级别的实例。者将会从零学会目前最新深度学习,以及使用TL实现各种应用。
目录
- 封面
- 版权页
- 前言
- 本书作者
- 致谢
- 如何阅读本书
- 目录
- 1 深度学习简介
- 1.1 人工智能、机器学习和深度学习
- 1.1.1 引言
- 1.1.2 人工智能、机器学习和深度学习三者的关系
- 1.2 神经网络
- 1.2.1 感知器
- 1.2.2 激活函数
- 1.2.3 损失函数
- 1.2.4 梯度下降和随机梯度下降
- 1.2.5 反向传播算法简述
- 1.2.6 其他神经网络
- 1.3 学习方法建议
- 1.3.1 网络资源
- 1.3.2 TensorFlow官方深度学习教程
- 1.3.3 开源社区
- 1.4 TensorLayer
- 1.4.1 深度学习框架概况
- 1.4.2 TensorLayer概括
- 1.4.3 实验环境配置
- 2 多层感知器
- 2.1 McCulloch-Pitts神经元模型
- 2.1.1 人工神经网络到底能干什么?到底在干什么
- 2.1.2 什么是激活函数?什么是偏值
- 2.2 感知器
- 2.2.1 什么是线性分类器
- 2.2.2 线性分类器有什么优缺点
- 2.2.3 感知器实例和异或问题(XOR问题)
- 2.3 多层感知器
- 2.4 实现手写数字分类
- 2.5 过拟合
- 2.5.1 什么是过拟合
- 2.5.2 Dropout
- 2.5.3 批规范化
- 2.5.4 L1、L2和其他正则化方法
- 2.5.5 Lp正则化的图形化解释
- 2.6 再实现手写数字分类
- 2.6.1 数据迭代器
- 2.6.2 通过 all_drop启动与关闭Dropout
- 2.6.3 通过参数共享实现训练测试切换
- 3 自编码器
- 3.1 稀疏性
- 3.2 稀疏自编码器
- 3.3 实现手写数字特征提取
- 3.4 降噪自编码器
- 3.5 再实现手写数字特征提取
- 3.6 堆栈式自编码器及其实现
- 4 卷积神经网络
- 4.1 卷积原理
- 4.1.1 卷积操作
- 4.1.2 张量
- 4.1.3 卷积层
- 4.1.4 池化层
- 4.1.5 全连接层
- 4.2 经典任务
- 4.2.1 图像分类
- 4.2.2 目标检测
- 4.2.3 语义分割
- 4.2.4 实例分割
- 4.3 经典卷积网络
- 4.3.1 LeNet
- 4.3.2 AlexNet
- 4.3.3 VGGNet
- 4.3.4 GoogLeNet
- 4.3.5 ResNet
- 4.4 实现手写数字分类
- 4.5 数据增强与规范化
- 4.5.1 数据增强
- 4.5.2 批规范化
- 4.5.3 局部响应归一化
- 4.6 实现CIFAR10分类
- 4.6.1 方法1:tl.prepro做数据增强
- 4.6.2 方法2:TFRecord做数据增强
- 4.7 反卷积神经网络
- 5 词的向量表达
- 5.1 目的与原理
- 5.2 Word2Vec
- 5.2.1 简介
- 5.2.2 Continuous Bag-Of-Words(CBOW)模型
- 5.2.3 Skip Gram(SG)模型
- 5.2.4 Hierarchical Softmax
- 5.2.5 Negative Sampling
- 5.3 实现Word2Vec
- 5.3.1 简介
- 5.3.2 实现
- 5.4 重载预训练矩阵
- 6 递归神经网络
- 6.1 为什么需要它
- 6.2 不同的RNNs
- 6.2.1 简单递归网络
- 6.2.2 回音网络
- 6.3 长短期记忆
- 6.3.1 LSTM概括
- 6.3.2 LSTM详解
- 6.3.3 LSTM变种
- 6.4 实现生成句子
- 6.4.1 模型简介
- 6.4.2 数据迭代
- 6.4.3 损失函数和更新公式
- 6.4.4 生成句子及Top K采样
- 6.4.5 接下来还可以做什么
- 7 深度增强学习
- 7.1 增强学习
- 7.1.1 概述
- 7.1.2 基于价值的增强学习
- 7.1.3 基于策略的增强学习
- 7.1.4 基于模型的增强学习
- 7.2 深度增强学习
- 7.2.1 深度Q学习
- 7.2.2 深度策略网络
- 7.3 更多参考资料
- 7.3.1 书籍
- 7.3.2 在线课程
- 8 生成对抗网络
- 8.1 何为生成对抗网络
- 8.2 深度卷积对抗生成网络
- 8.3 实现人脸生成
- 8.4 还能做什么
- 9 高级实现技巧
- 9.1 与其他框架对接
- 9.1.1 无参数层
- 9.1.2 有参数层
- 9.2 自定义层
- 9.2.1 无参数层
- 9.2.2 有参数层
- 9.3 建立词汇表
- 9.4 补零与序列长度
- 9.5 动态递归神经网络
- 9.6 实用小技巧
- 9.6.1 屏蔽显示
- 9.6.2 参数名字前缀
- 9.6.3 获取特定参数
- 9.6.4 获取特定层输出
- 10 实例一:使用预训练卷积网络
- 10.1 高维特征表达
- 10.2 VGG网络
- 10.3 连接TF-Slim
- 11 实例二:图像语义分割及其医学图像应用
- 11.1 图像语义分割概述
- 11.1.1 传统图像分割算法简介
- 11.1.2 损失函数与评估指标
- 11.2 医学图像分割概述
- 11.3 全卷积神经网络和U-Net网络结构
- 11.4 医学图像应用:实现脑部肿瘤分割
- 11.4.1 数据与数据增强
- 11.4.2 U-Net网络
- 11.4.3 损失函数
- 11.4.4 开始训练
- 12 实例三:由文本生成图像
- 12.1 条件生成对抗网络之GAN-CLS
- 12.2 实现句子生成花朵图片
- 13 实例四:超高分辨率复原
- 13.1 什么是超高分辨率复原
- 13.2 网络结构
- 13.3 联合损失函数
- 13.4 训练网络
- 13.5 使用测试
- 14 实例五:文本反垃圾
- 14.1 任务场景
- 14.2 网络结构
- 14.3 词的向量表示
- 14.4 Dynamic RNN分类器
- 14.5 训练网络
- 14.5.1 训练词向量
- 14.5.2 文本的表示
- 14.5.3 训练分类器
- 14.5.4 模型导出
- 14.6 TensorFlow Serving部署
- 14.7 客户端调用
- 14.8 其他常用方法
- 中英对照表及其缩写
- 参考文献
展开全部
出版方
电子工业出版社
电子工业出版社成立于1982年10月,是国务院独资、工信部直属的中央级科技与教育出版社,是专业的信息技术知识集成和服务提供商。经过三十多年的建设与发展,已成为一家以科技和教育出版、期刊、网络、行业支撑服务、数字出版、软件研发、软科学研究、职业培训和教育为核心业务的现代知识服务集团。出版物内容涵盖了电子信息技术的各个分支及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。