人工智能
类型
6.6
豆瓣评分
可以朗读
语音朗读
124千字
字数
2019-01-01
发行日期
展开全部
主编推荐语
智能问答、自然语言处理、深度学习、词向量、问答系统与机器阅读理解。
内容简介
本书包含7章,从智能问答的意义和现状过度到自然语言处理与深度学习技术。第二章是机器学习基础,包括线性代数、概率论、信息论、统计学习、隐马尔可夫模型和条件随机场模型。第三章介绍自然语言处理,帮助大家入门自然语言处理。第四章讲解深度学习,包含基础内容前向传播网络、反向传播、梯度下降原理,以及目前广泛使用的卷积神经网络和循环神经网络。第五章介绍词向量技术实现及应用。第六章介绍采用深度学习实现问答系统。第七章介绍目前很热门的问答的一个大分支——机器阅读理解。
目录
- 封面
- 书名页
- 内容简介
- 版权页
- 推荐序1
- 推荐序2
- 好评袭来
- 前言
- 目录
- 1 概述
- 1.1 智能问答:让机器更好地服务于人
- 1.2 问答系统类型介绍
- 1.2.1 基于事实的问答系统
- 1.2.2 基于常见问题集的问答系统
- 1.2.3 开放域的问答系统
- 1.3 使用本书附带的源码程序
- 1.3.1 安装依赖软件
- 1.3.2 下载源码
- 1.3.3 执行示例程序
- 1.3.4 联系我们
- 1.4 全书结构
- 2 机器学习基础
- 2.1 线性代数
- 2.1.1 标量、向量、矩阵和张量
- 2.1.2 矩阵运算
- 2.1.3 特殊类型的矩阵
- 2.1.4 线性相关
- 2.1.5 范数
- 2.2 概率论基础
- 2.2.1 随机变量
- 2.2.2 期望和方差
- 2.2.3 伯努利分布
- 2.2.4 二项分布
- 2.2.5 泊松分布
- 2.2.6 正态分布
- 2.2.7 条件概率、联合概率和全概率
- 2.2.8 先验概率与后验概率
- 2.2.9 边缘概率
- 2.2.10 贝叶斯公式
- 2.2.11 最大似然估计算法
- 2.2.12 线性回归模型
- 2.2.13 逻辑斯蒂回归模型
- 2.3 信息论基础
- 2.3.1 熵
- 2.3.2 联合熵和条件熵
- 2.3.3 相对熵与互信息
- 2.3.4 信道和信道容量
- 2.3.5 最大熵模型
- 2.3.6 信息论与机器学习
- 2.4 统计学习
- 2.4.1 输入空间、特征空间与输出空间
- 2.4.2 向量表示
- 2.4.3 数据集
- 2.4.4 从概率到函数
- 2.4.5 统计学习三要素
- 2.5 隐马尔可夫模型
- 2.5.1 随机过程和马尔可夫链
- 2.5.2 隐马尔可夫模型的定义
- 2.5.3 三个基本假设及适用场景
- 2.5.4 概率计算问题之直接计算
- 2.5.5 概率计算问题之前向算法
- 2.5.6 概率计算问题之后向算法
- 2.5.7 预测问题之维特比算法
- 2.5.8 学习问题之Baum-Welch算法
- 2.6 条件随机场模型
- 2.6.1 超越HMM
- 2.6.2 项目实践
- 2.7 总结
- 3 自然语言处理基础
- 3.1 中文自动分词
- 3.1.1 有向无环图
- 3.1.2 最大匹配算法
- 3.1.3 算法评测
- 3.1.4 由字构词的方法
- 3.2 词性标注
- 3.2.1 词性标注规范
- 3.2.2 隐马尔可夫模型词性标注
- 3.3 命名实体识别
- 3.4 上下文无关文法
- 3.4.1 原理介绍
- 3.4.2 算法浅析
- 3.5 依存关系分析
- 3.5.1 算法浅析
- 3.5.2 项目实践
- 3.5.3 小结
- 3.6 信息检索系统
- 3.6.1 什么是信息检索系统
- 3.6.2 衡量信息检索系统的关键指标
- 3.6.3 理解非结构化数据
- 3.6.4 倒排索引
- 3.6.5 处理查询
- 3.6.6 项目实践
- 3.6.7 Elasticsearch
- 3.6.8 小结
- 3.7 问答语料
- 3.7.1 WikiQA
- 3.7.2 中文版保险行业语料库InsuranceQA
- 3.8 总结
- 4 深度学习初步
- 4.1 深度学习简史
- 4.1.1 感知机
- 4.1.2 寒冬和复苏
- 4.1.3 走出实验室
- 4.1.4 寒冬再临
- 4.1.5 走向大规模实际应用
- 4.2 基本架构
- 4.2.1 神经元
- 4.2.2 输入层、隐藏层和输出层
- 4.2.3 标准符号
- 4.3 神经网络是如何学习的
- 4.3.1 梯度下降
- 4.3.2 反向传播理论
- 4.3.3 神经网络全连接层的实现
- 4.3.4 使用简单神经网络实现问答任务
- 4.4 调整神经网络超参数
- 4.4.1 超参数
- 4.4.2 参考建议
- 4.5 卷积神经网络与池化
- 4.5.1 简介
- 4.5.2 卷积层的前向传播
- 4.5.3 池化层的前向传播
- 4.5.4 卷积层的实现
- 4.5.5 池化层的实现
- 4.5.6 使用卷积神经网络实现问答任务
- 4.6 循环神经网络及其变种
- 4.6.1 简介
- 4.6.2 循环神经网络
- 4.6.3 长短期记忆单元和门控循环单元
- 4.6.4 循环神经网络的实现
- 4.6.5 使用循环神经网络实现问答任务
- 4.7 简易神经网络工具包
- 5 词向量实现及应用
- 5.1 语言模型
- 5.1.1 评测
- 5.1.2 ARPA格式介绍
- 5.1.3 项目实践
- 5.2 One-hot表示法
- 5.3 词袋模型
- 5.4 NNLM和RNNLM
- 5.5 word2vec
- 5.5.1 C-BOW的原理
- 5.5.2 Skip-gram的原理
- 5.5.3 计算效率优化
- 5.5.4 项目实践
- 5.6 GloVe
- 5.6.1 GloVe的原理
- 5.6.2 GloVe与word2vec的区别和联系
- 5.6.3 项目实践
- 5.7 fastText
- 5.7.1 fastText的原理
- 5.7.2 fastText与word2vec的区别和联系
- 5.7.3 项目实践
- 5.8 中文近义词工具包
- 5.8.1 安装
- 5.8.2 接口
- 5.9 总结
- 6 社区问答中的QA匹配
- 6.1 社区问答任务简介
- 6.2 孪生网络模型
- 6.3 QACNN模型
- 6.3.1 模型构建
- 6.3.2 实验结果
- 6.4 Decomposable Attention模型
- 6.4.1 模型介绍
- 6.4.2 模型构建
- 6.5 多比较方式的比较–集成模型
- 6.5.1 模型介绍
- 6.5.2 模型构建
- 6.6 BiMPM模型
- 6.6.1 模型介绍
- 6.6.2 模型构建
- 7 机器阅读理解
- 7.1 完型填空型机器阅读理解任务
- 7.1.1 CNN/Daily Mail数据集
- 7.1.2 Children’s Book Test(CBT)数据集
- 7.1.3 GA Reader模型
- 7.1.4 SA Reader模型
- 7.1.5 AoA Reader模型
- 7.2 答案抽取型机器阅读理解任务
- 7.2.1 SQuAD数据集
- 7.2.2 MS MARCO数据集
- 7.2.3 TriviaQA数据集
- 7.2.4 DuReader数据集
- 7.2.5 BiDAF模型
- 7.2.6 R-Net模型
- 7.2.7 S-Net模型
- 7.3 答案选择型机器阅读理解任务
- 7.4 展望
- 参考文献
- 封底
展开全部
出版方
电子工业出版社
电子工业出版社成立于1982年10月,是国务院独资、工信部直属的中央级科技与教育出版社,是专业的信息技术知识集成和服务提供商。经过三十多年的建设与发展,已成为一家以科技和教育出版、期刊、网络、行业支撑服务、数字出版、软件研发、软科学研究、职业培训和教育为核心业务的现代知识服务集团。出版物内容涵盖了电子信息技术的各个分支及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。