展开全部

主编推荐语

本书内容详尽、示例丰富,是机器学习和深度学习读者必备的参考书,非常适合开设人工智能相关专业的大中专院校师生阅读,也可作为高等院校计算机及相关专业教材使用。

内容简介

神经网络是深度学习的核心内容,TensorFlow是现在最为流行的深度学习框架之一。本书使用TensorFlow2.1作为自然语言处理实现的基本工具,引导深度学习的入门读者,从搭建环境开始,逐步深入到理论、代码、应用实践中去。

本书分为10章,内容包括搭建环境、TensorFlow基本和高级API的使用、MNIST手写体分辨实战、DatasetAPI、ResNet模型、词嵌入(wordembedding)模型的实现,最后给出3个实战案例:文本分类、基于编码器的拼音汉字转化模型,以及基于编码器、解码器的拼音汉字翻译模型。

目录

  • 版权信息
  • 内容简介
  • 前言
  • 第1章 自然语言之道
  • 1.1 何谓自然语言处理
  • 1.1.1 自然语言处理是门技术
  • 1.1.2 传统自然语言处理
  • 1.2 自然语言处理为什么难——以最简单的情感分析为例
  • 1.3 自然语言处理的展望
  • 1.3.1 自然语言处理对于人工智能的意义
  • 1.3.2 自然语言在金融、法律、医疗健康等方面的应用
  • 1.4 搭建环境1:安装Python
  • 1.4.1 Anaconda的下载与安装
  • 1.4.2 Python编译器PyCharm的安装
  • 1.4.3 使用Python计算softmax函数
  • 1.5 搭建环境2:安装TensorFlow 2.1
  • 1.5.1 安装TensorFlow 2.1的CPU版本
  • 1.5.2 安装TensorFlow 2.1的GPU版本
  • 1.5.3 练习——Hello TensorFlow
  • 1.6 实战——酒店评论的情感分类
  • 1.6.1 第一步:数据的准备
  • 1.6.2 第二步:数据的处理
  • 1.6.3 第三步:模型的设计
  • 1.6.4 第四步:模型的训练
  • 1.6.5 第五步:模型的结果和展示
  • 1.7 本章小结
  • 第2章 Hello TensorFlow & Keras
  • 2.1 TensorFlow & Keras
  • 2.1.1 模型!模型!还是模型!
  • 2.1.2 使用Keras API实现鸢尾花分类的例子(顺序模式)
  • 2.1.3 使用Keras函数式编程实现鸢尾花分类的例子(重点)
  • 2.1.4 使用保存的Keras模式对模型进行复用
  • 2.1.5 使用TensorFlow标准化编译对iris模型进行拟合
  • 2.1.6 多输入单一输出TensorFlow编译方法(选学)
  • 2.1.7 多输入多输出TensorFlow编译方法(选学)
  • 2.2 全连接层详解
  • 2.2.1 全连接层的定义与实现
  • 2.2.2 使用TensorFlow自带的API实现全连接层
  • 2.2.3 打印显示已设计的model结构和参数
  • 2.3 懒人的福音——Keras模型库
  • 2.3.1 ResNet50模型和参数的载入
  • 2.3.2 使用ResNet50作为特征提取层建立模型
  • 2.4 本章小结
  • 第3章 深度学习的理论基础
  • 3.1 BP神经网络简介
  • 3.2 BP神经网络两个基础算法详解
  • 3.2.1 最小二乘法(LS算法)详解
  • 3.2.2 道士下山的故事——梯度下降算法
  • 3.3 反馈神经网络反向传播算法介绍
  • 3.3.1 深度学习基础
  • 3.3.2 链式求导法则
  • 3.3.3 反馈神经网络原理与公式推导
  • 3.3.4 反馈神经网络原理的激活函数
  • 3.3.5 反馈神经网络原理的Python实现
  • 3.4 本章小结
  • 第4章 卷积层与MNIST实战
  • 4.1 卷积运算基本概念
  • 4.1.1 卷积运算
  • 4.1.2 TensorFlow中卷积函数实现详解
  • 4.1.3 池化运算
  • 4.1.4 softmax激活函数
  • 4.1.5 卷积神经网络原理
  • 4.2 编程实战:MNIST手写体识别
  • 4.2.1 MNIST数据集
  • 4.2.2 MNIST数据集特征和标签介绍
  • 4.2.3 TensorFlow 2.X编程实战:MNIST数据集
  • 4.2.4 使用自定义的卷积层实现MNIST识别
  • 4.3 本章小结
  • 第5章 TensorFlow Datasets和TensorBoard详解
  • 5.1 TensorFlow Datasets简介
  • 5.1.1 Datasets数据集的安装
  • 5.1.2 Datasets数据集的使用
  • 5.2 Datasets数据集的使用——FashionMNIST
  • 5.2.1 FashionMNIST数据集下载与展示
  • 5.2.2 模型的建立与训练
  • 5.3 使用Keras对FashionMNIST数据集进行处理
  • 5.3.1 获取数据集
  • 5.3.2 数据集的调整
  • 5.3.3 使用Python类函数建立模型
  • 5.3.4 Model的查看和参数打印
  • 5.3.5 模型的训练和评估
  • 5.4 使用TensorBoard可视化训练过程
  • 5.4.1 TensorBoard文件夹的设置
  • 5.4.2 TensorBoard的显式调用
  • 5.4.3 TensorBoard的使用
  • 5.5 本章小结
  • 第6章 从冠军开始:ResNet
  • 6.1 ResNet基础原理与程序设计基础
  • 6.1.1 ResNet诞生的背景
  • 6.1.2 模块工具的TensorFlow实现——不要重复造轮子
  • 6.1.3 TensorFlow高级模块layers用法简介
  • 6.2 ResNet实战:CIFAR100数据集分类
  • 6.2.1 CIFAR100数据集简介
  • 6.2.2 ResNet残差模块的实现
  • 6.2.3 ResNet网络的实现
  • 6.2.4 使用ResNet对CIFAR100数据集进行分类
  • 6.3 ResNet的兄弟——ResNeXt
  • 6.3.1 ResNeXt诞生的背景
  • 6.3.2 ResNeXt残差模块的实现
  • 6.3.3 ResNeXt网络的实现
  • 6.3.4 ResNeXt和ResNet的比较
  • 6.4 本章小结
  • 第7章 有趣的word embedding
  • 7.1 文本数据处理
  • 7.1.1 数据集介绍和数据清洗
  • 7.1.2 停用词的使用
  • 7.1.3 词向量训练模型word2vec使用介绍
  • 7.1.4 文本主题的提取:基于TF-IDF(选学)
  • 7.1.5 文本主题的提取:基于TextRank(选学)
  • 7.2 更多的word embedding方法——fastText和预训练词向量
  • 7.2.1 fastText的原理与基础算法
  • 7.2.2 fastText训练以及与TensorFlow 2.X的协同使用
  • 7.2.3 使用其他预训练参数做TensorFlow词嵌入矩阵(中文)
  • 7.3 针对文本的卷积神经网络模型简介——字符卷积
  • 7.3.1 字符(非单词)文本的处理
  • 7.3.2 卷积神经网络文本分类模型的实现——conv1d(一维卷积)
  • 7.4 针对文本的卷积神经网络模型简介——词卷积
  • 7.4.1 单词的文本处理
  • 7.4.2 卷积神经网络文本分类模型的实现——conv2d(二维卷积)
  • 7.5 使用卷积对文本分类的补充内容
  • 7.5.1 汉字的文本处理
  • 7.5.2 其他细节
  • 7.6 本章小结
  • 第8章 实战——站在冠军肩膀上的情感分类实战
  • 8.1 GRU与情感分类
  • 8.1.1 什么是GRU
  • 8.1.2 使用GRU的情感分类
  • 8.1.3 TensorFlow中的GRU层详解
  • 8.1.4 单向不行就双向
  • 8.2 站在巨人肩膀上的情感分类
  • 8.2.1 使用TensorFlow自带的模型做文本分类
  • 8.2.2 使用自定义的DPCNN做模型分类
  • 8.3 本章小结
  • 第9章 从0起步——自然语言处理的编码器
  • 9.1 编码器的核心——注意力模型
  • 9.1.1 输入层——初始词向量层和位置编码器层
  • 9.1.2 自注意力层(本书重点)
  • 9.1.3 ticks和LayerNormalization
  • 9.1.4 多头自注意力
  • 9.2 编码器的实现
  • 9.2.1 前馈层的实现
  • 9.2.2 构建编码器架构
  • 9.3 实战编码器——汉字拼音转化模型
  • 9.3.1 汉字拼音数据集处理
  • 9.3.2 汉字拼音转化模型的确定
  • 9.3.3 模型训练部分的编写
  • 9.3.4 推断函数的编写
  • 9.4 本章小结
  • 第10章 从1起步——自然语言处理的解码器
  • 10.1 解码器的核心——注意力模型
  • 10.1.1 解码器的输入和交互注意力层的掩码
  • 10.1.2 为什么通过掩码操作能够减少干扰
  • 10.1.3 解码器的输出(移位训练方法)
  • 10.1.4 解码器的实现
  • 10.2 解码器实战——拼音汉字翻译模型
  • 10.2.1 翻译模型
  • 10.2.2 拼音汉字模型的训练(注意训练过程的错位数据输入)
  • 10.2.3 拼音汉字模型的使用(循环输出的问题)
  • 10.3 本章小结
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

清华大学出版社

清华大学出版社成立于1980年6月,是由教育部主管、清华大学主办的综合出版单位。植根于“清华”这座久负盛名的高等学府,秉承清华人“自强不息,厚德载物”的人文精神,清华大学出版社在短短二十多年的时间里,迅速成长起来。清华大学出版社始终坚持弘扬科技文化产业、服务科教兴国战略的出版方向,把出版高等学校教学用书和科技图书作为主要任务,并为促进学术交流、繁荣出版事业设立了多项出版基金,逐渐形成了以出版高水平的教材和学术专著为主的鲜明特色,在教育出版领域树立了强势品牌。