展开全部

主编推荐语

智能问答、自然语言处理、深度学习、词向量、问答系统与机器阅读理解。

内容简介

本书包含7章,从智能问答的意义和现状过度到自然语言处理与深度学习技术。第二章是机器学习基础,包括线性代数、概率论、信息论、统计学习、隐马尔可夫模型和条件随机场模型。第三章介绍自然语言处理,帮助大家入门自然语言处理。第四章讲解深度学习,包含基础内容前向传播网络、反向传播、梯度下降原理,以及目前广泛使用的卷积神经网络和循环神经网络。第五章介绍词向量技术实现及应用。第六章介绍采用深度学习实现问答系统。第七章介绍目前很热门的问答的一个大分支——机器阅读理解。

目录

  • 封面
  • 书名页
  • 内容简介
  • 版权页
  • 推荐序1
  • 推荐序2
  • 好评袭来
  • 前言
  • 目录
  • 1 概述
  • 1.1 智能问答:让机器更好地服务于人
  • 1.2 问答系统类型介绍
  • 1.2.1 基于事实的问答系统
  • 1.2.2 基于常见问题集的问答系统
  • 1.2.3 开放域的问答系统
  • 1.3 使用本书附带的源码程序
  • 1.3.1 安装依赖软件
  • 1.3.2 下载源码
  • 1.3.3 执行示例程序
  • 1.3.4 联系我们
  • 1.4 全书结构
  • 2 机器学习基础
  • 2.1 线性代数
  • 2.1.1 标量、向量、矩阵和张量
  • 2.1.2 矩阵运算
  • 2.1.3 特殊类型的矩阵
  • 2.1.4 线性相关
  • 2.1.5 范数
  • 2.2 概率论基础
  • 2.2.1 随机变量
  • 2.2.2 期望和方差
  • 2.2.3 伯努利分布
  • 2.2.4 二项分布
  • 2.2.5 泊松分布
  • 2.2.6 正态分布
  • 2.2.7 条件概率、联合概率和全概率
  • 2.2.8 先验概率与后验概率
  • 2.2.9 边缘概率
  • 2.2.10 贝叶斯公式
  • 2.2.11 最大似然估计算法
  • 2.2.12 线性回归模型
  • 2.2.13 逻辑斯蒂回归模型
  • 2.3 信息论基础
  • 2.3.1 熵
  • 2.3.2 联合熵和条件熵
  • 2.3.3 相对熵与互信息
  • 2.3.4 信道和信道容量
  • 2.3.5 最大熵模型
  • 2.3.6 信息论与机器学习
  • 2.4 统计学习
  • 2.4.1 输入空间、特征空间与输出空间
  • 2.4.2 向量表示
  • 2.4.3 数据集
  • 2.4.4 从概率到函数
  • 2.4.5 统计学习三要素
  • 2.5 隐马尔可夫模型
  • 2.5.1 随机过程和马尔可夫链
  • 2.5.2 隐马尔可夫模型的定义
  • 2.5.3 三个基本假设及适用场景
  • 2.5.4 概率计算问题之直接计算
  • 2.5.5 概率计算问题之前向算法
  • 2.5.6 概率计算问题之后向算法
  • 2.5.7 预测问题之维特比算法
  • 2.5.8 学习问题之Baum-Welch算法
  • 2.6 条件随机场模型
  • 2.6.1 超越HMM
  • 2.6.2 项目实践
  • 2.7 总结
  • 3 自然语言处理基础
  • 3.1 中文自动分词
  • 3.1.1 有向无环图
  • 3.1.2 最大匹配算法
  • 3.1.3 算法评测
  • 3.1.4 由字构词的方法
  • 3.2 词性标注
  • 3.2.1 词性标注规范
  • 3.2.2 隐马尔可夫模型词性标注
  • 3.3 命名实体识别
  • 3.4 上下文无关文法
  • 3.4.1 原理介绍
  • 3.4.2 算法浅析
  • 3.5 依存关系分析
  • 3.5.1 算法浅析
  • 3.5.2 项目实践
  • 3.5.3 小结
  • 3.6 信息检索系统
  • 3.6.1 什么是信息检索系统
  • 3.6.2 衡量信息检索系统的关键指标
  • 3.6.3 理解非结构化数据
  • 3.6.4 倒排索引
  • 3.6.5 处理查询
  • 3.6.6 项目实践
  • 3.6.7 Elasticsearch
  • 3.6.8 小结
  • 3.7 问答语料
  • 3.7.1 WikiQA
  • 3.7.2 中文版保险行业语料库InsuranceQA
  • 3.8 总结
  • 4 深度学习初步
  • 4.1 深度学习简史
  • 4.1.1 感知机
  • 4.1.2 寒冬和复苏
  • 4.1.3 走出实验室
  • 4.1.4 寒冬再临
  • 4.1.5 走向大规模实际应用
  • 4.2 基本架构
  • 4.2.1 神经元
  • 4.2.2 输入层、隐藏层和输出层
  • 4.2.3 标准符号
  • 4.3 神经网络是如何学习的
  • 4.3.1 梯度下降
  • 4.3.2 反向传播理论
  • 4.3.3 神经网络全连接层的实现
  • 4.3.4 使用简单神经网络实现问答任务
  • 4.4 调整神经网络超参数
  • 4.4.1 超参数
  • 4.4.2 参考建议
  • 4.5 卷积神经网络与池化
  • 4.5.1 简介
  • 4.5.2 卷积层的前向传播
  • 4.5.3 池化层的前向传播
  • 4.5.4 卷积层的实现
  • 4.5.5 池化层的实现
  • 4.5.6 使用卷积神经网络实现问答任务
  • 4.6 循环神经网络及其变种
  • 4.6.1 简介
  • 4.6.2 循环神经网络
  • 4.6.3 长短期记忆单元和门控循环单元
  • 4.6.4 循环神经网络的实现
  • 4.6.5 使用循环神经网络实现问答任务
  • 4.7 简易神经网络工具包
  • 5 词向量实现及应用
  • 5.1 语言模型
  • 5.1.1 评测
  • 5.1.2 ARPA格式介绍
  • 5.1.3 项目实践
  • 5.2 One-hot表示法
  • 5.3 词袋模型
  • 5.4 NNLM和RNNLM
  • 5.5 word2vec
  • 5.5.1 C-BOW的原理
  • 5.5.2 Skip-gram的原理
  • 5.5.3 计算效率优化
  • 5.5.4 项目实践
  • 5.6 GloVe
  • 5.6.1 GloVe的原理
  • 5.6.2 GloVe与word2vec的区别和联系
  • 5.6.3 项目实践
  • 5.7 fastText
  • 5.7.1 fastText的原理
  • 5.7.2 fastText与word2vec的区别和联系
  • 5.7.3 项目实践
  • 5.8 中文近义词工具包
  • 5.8.1 安装
  • 5.8.2 接口
  • 5.9 总结
  • 6 社区问答中的QA匹配
  • 6.1 社区问答任务简介
  • 6.2 孪生网络模型
  • 6.3 QACNN模型
  • 6.3.1 模型构建
  • 6.3.2 实验结果
  • 6.4 Decomposable Attention模型
  • 6.4.1 模型介绍
  • 6.4.2 模型构建
  • 6.5 多比较方式的比较–集成模型
  • 6.5.1 模型介绍
  • 6.5.2 模型构建
  • 6.6 BiMPM模型
  • 6.6.1 模型介绍
  • 6.6.2 模型构建
  • 7 机器阅读理解
  • 7.1 完型填空型机器阅读理解任务
  • 7.1.1 CNN/Daily Mail数据集
  • 7.1.2 Children’s Book Test(CBT)数据集
  • 7.1.3 GA Reader模型
  • 7.1.4 SA Reader模型
  • 7.1.5 AoA Reader模型
  • 7.2 答案抽取型机器阅读理解任务
  • 7.2.1 SQuAD数据集
  • 7.2.2 MS MARCO数据集
  • 7.2.3 TriviaQA数据集
  • 7.2.4 DuReader数据集
  • 7.2.5 BiDAF模型
  • 7.2.6 R-Net模型
  • 7.2.7 S-Net模型
  • 7.3 答案选择型机器阅读理解任务
  • 7.4 展望
  • 参考文献
  • 封底
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

电子工业出版社

电子工业出版社成立于1982年10月,是国务院独资、工信部直属的中央级科技与教育出版社,是专业的信息技术知识集成和服务提供商。经过三十多年的建设与发展,已成为一家以科技和教育出版、期刊、网络、行业支撑服务、数字出版、软件研发、软科学研究、职业培训和教育为核心业务的现代知识服务集团。出版物内容涵盖了电子信息技术的各个分支及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。