人工智能
类型
可以朗读
语音朗读
109千字
字数
2021-12-01
发行日期
展开全部
主编推荐语
实战深度学习:基于TensorFlow 2.5和Keras的11个实战案例。
内容简介
本书摆脱深度学习的基础技术,以实战为主,通过丰富的实战案例向读者介绍了深度学习可应用和落地的项目,书中所有案例都基于TensorFlow 2.5+Keras技术,可配套用于深度学习课程的实训学习。本书共分11章。第1章讲解深度学习的概念、流程、应用场景、模型分类和框架选择,第2~11章都是深度学习的项目实战案例,包括手写体识别、数据集分类、情感分类、文本情感分类、编码器、汉字拼音转换、中文文本分类、多标签文本分类、人脸检测、人脸识别、语音汉字转换。本书内容详尽、案例丰富,是深度学习读者必备的参考书,适合有基础、亟待提升自己技术水平的人工智能从业人员,也可作为高等院校、中职学校和培训机构人工智能及相关专业的教材使用。
目录
- 封面页
- 书名页
- 版权页
- 内容简介
- 前言
- 目录
- 第1章 深度学习与应用框架
- 1.1 深度学习的概念
- 1.1.1 何为深度学习
- 1.1.2 与传统的“浅层学习”的区别
- 1.2 案例实战:文本的情感分类
- 1.2.1 第一步:数据的准备
- 1.2.2 第二步:数据的处理
- 1.2.3 第三步:模型的设计
- 1.2.4 第四步:模型的训练
- 1.2.5 第五步:模型的结果和展示
- 1.3 深度学习的流程、应用场景和模型分类
- 1.3.1 深度学习的流程与应用场景
- 1.3.2 深度学习的模型分类
- 1.4 主流深度学习的框架对比
- 1.4.1 深度学习框架的选择
- 1.4.2 本书选择:Keras与TensorFlow
- 1.5 本章小结
- 第2章 实战卷积神经网络——手写体识别
- 2.1 卷积神经网络理论基础
- 2.1.1 卷积运算
- 2.1.2 TensorFlow中的卷积函数
- 2.1.3 池化运算
- 2.1.4 softmax激活函数
- 2.1.5 卷积神经网络原理
- 2.2 案例实战:MNIST手写体识别
- 2.2.1 MNIST数据集的解析
- 2.2.2 MNIST数据集的特征和标签
- 2.2.3 TensorFlow 2.X编码实现
- 2.2.4 使用自定义的卷积层实现MNIST识别
- 2.3 本章小结
- 第3章 实战ResNet——CIFAR-100数据集分类
- 3.1 ResNet理论基础
- 3.1.1 ResNet诞生的背景
- 3.1.2 模块工具的TensorFlow实现
- 3.1.3 TensorFlow高级模块layers
- 3.2 案例实战:CIFAR-100数据集分类
- 3.2.1 CIFAR-100数据集的获取
- 3.2.2 ResNet残差模块的实现
- 3.2.3 ResNet网络的实现
- 3.2.4 使用ResNet对CIFAR-100数据集进行分类
- 3.3 本章小结
- 第4章 实战循环神经网络GRU——情感分类
- 4.1 情感分类理论基础
- 4.1.1 复习简单的情感分类
- 4.1.2 什么是GRU
- 4.1.3 TensorFlow中的GRU层
- 4.1.4 双向GRU
- 4.2 案例实战:情感分类
- 4.2.1 使用TensorFlow自带的模型来实现分类
- 4.2.2 使用自定义的DPCNN来实现分类
- 4.3 本章小结
- 第5章 实战图卷积——文本情感分类
- 5.1 图卷积理论基础
- 5.1.1 “节点”“邻接矩阵”和“度矩阵”的物理意义
- 5.1.2 图卷积的理论计算
- 5.1.3 图卷积神经网络的传播规则
- 5.2 案例实战:Cora数据集文本分类
- 5.2.1 Cora数据集简介
- 5.2.2 Cora数据集的读取与数据处理
- 5.2.3 图卷积模型的设计与实现
- 5.2.4 图卷积模型的训练与改进
- 5.3 案例实战:基于图卷积的情感分类(图卷积前沿内容)
- 5.3.1 文本结构化处理的思路与实现
- 5.3.2 使用图卷积对文本进行分类实战
- 5.3.3 图卷积模型的改进
- 5.4 本章小结
- 第6章 实战自然语言处理——编码器
- 6.1 编码器理论基础
- 6.1.1 输入层——初始词向量层和位置编码器层
- 6.1.2 自注意力层
- 6.1.3 ticks和LayerNormalization
- 6.1.4 多头自注意力
- 6.2 案例实战:简单的编码器
- 6.2.1 前馈层的实现
- 6.2.2 编码器的实现
- 6.3 案例实战:汉字拼音转化模型
- 6.3.1 汉字拼音数据集处理
- 6.3.2 汉字拼音转化模型的确定
- 6.3.3 模型训练部分的编写
- 6.3.4 推断函数的编写
- 6.4 本章小结
- 第7章 实战BERT——中文文本分类
- 7.1 BERT理论基础
- 7.1.1 BERT基本架构与应用
- 7.1.2 BERT预训练任务与Fine-Tuning
- 7.2 案例实战:中文文本分类
- 7.2.1 使用Hugging Face获取BERT预训练模型
- 7.2.2 BERT实战文本分类
- 7.3 拓展:更多的预训练模型
- 7.4 本章小结
- 第8章 实战自然语言处理——多标签文本分类
- 8.1 多标签分类理论基础
- 8.1.1 多标签分类不等于多分类
- 8.1.2 多标签分类的激活函数——sigmoid
- 8.2 案例实战:多标签文本分类
- 8.2.1 第一步:数据的获取与处理
- 8.2.2 第二步:选择特征抽取模型
- 8.2.3 第三步:训练模型的建立
- 8.2.4 第四步:多标签文本分类的训练与预测
- 8.3 本章小结
- 第9章 实战MTCNN—人脸检测
- 9.1 人脸检测基础
- 9.1.1 LFW数据集简介
- 9.1.2 Dlib库简介
- 9.1.3 OpenCV简介
- 9.1.4 使用Dlib做出图像中的人脸检测
- 9.1.5 使用Dlib和OpenCV建立人脸检测数据集
- 9.2 案例实战:基于MTCNN模型的人脸检测
- 9.2.1 MTCNN模型简介
- 9.2.2 MTCNN模型的使用
- 9.2.3 MTCNN模型中的一些细节
- 9.3 本章小结
- 第10章 实战SiameseModel—人脸识别
- 10.1 基于深度学习的人脸识别模型
- 10.1.1 人脸识别的基本模型SiameseModel
- 10.1.2 SiameseModel的实现
- 10.1.3 人脸识别数据集的准备
- 10.2 案例实战:基于相似度计算的人脸识别模型
- 10.2.1 一种新的损失函数Triplet Loss
- 10.2.2 基于TripletSemiHardLoss的MNIST模型
- 10.2.3 基于TripletSemiHardLoss和SENET的人脸识别模型
- 10.3 本章小结
- 第11章 实战MFCC和CTC——语音转换
- 11.1 MFCC理论基础
- 11.1.1 MFCC
- 11.1.2 CTC
- 11.2 案例实战:语音汉字转换
- 11.2.1 第一步:数据集THCHS-30简介
- 11.2.2 第二步:数据集的提取与转化
- 11.3 本章小结
展开全部
出版方
清华大学出版社
清华大学出版社成立于1980年6月,是由教育部主管、清华大学主办的综合出版单位。植根于“清华”这座久负盛名的高等学府,秉承清华人“自强不息,厚德载物”的人文精神,清华大学出版社在短短二十多年的时间里,迅速成长起来。清华大学出版社始终坚持弘扬科技文化产业、服务科教兴国战略的出版方向,把出版高等学校教学用书和科技图书作为主要任务,并为促进学术交流、繁荣出版事业设立了多项出版基金,逐渐形成了以出版高水平的教材和学术专著为主的鲜明特色,在教育出版领域树立了强势品牌。