计算机
类型
可以朗读
语音朗读
535千字
字数
2019-02-01
发行日期
展开全部
主编推荐语
本书提供NLTK及Python库应用,分三部分教授NLP与机器学习项目构建。
内容简介
本书是一本运用NLTK和其他Python库构建专业NLP和机器学习项目的学习指南。本书共分为三部分。第一部分是NLTK基本模块,重点是如何创建文本分割器和解析器。第二部分介绍一些简单的文本处理方法和语言处理的基本技术。第三部分将会带领读者去实现自己的NLP项目。
目录
- 版权信息
- 内容提要
- 译者序
- 前言
- 资源与支持
- 模块1 NLTK基础知识
- 第1章 自然语言处理简介
- 1.1 为什么要学习NLP
- 1.2 从Python的基本知识开始
- 1.3 NLTK
- 1.4 试一试
- 1.5 本章小结
- 第2章 文本的整理和清洗
- 2.1 文本整理
- 2.2 文本清洗
- 2.3 句子拆分器
- 2.4 标记解析
- 2.5 词干提取
- 2.6 词形还原
- 2.7 停用词删除
- 2.8 生僻字删除
- 2.9 拼写校正
- 2.10 试一试
- 2.11 本章小结
- 第3章 词性标注
- 3.1 什么是词性标注
- 3.2 命名实体识别
- 3.3 试一试
- 3.4 本章小结
- 第4章 对文本的结构进行语法分析
- 4.1 浅层语法分析与深层语法分析
- 4.2 语法分析的两种方法
- 4.3 为什么需要语法分析
- 4.4 不同类型的语法分析器
- 4.5 依存分析
- 4.6 组块化
- 4.7 信息抽取
- 4.8 本章小结
- 第5章 NLP应用
- 5.1 构建第一个NLP应用
- 5.2 其他的NLP应用
- 5.3 本章小结
- 第6章 文本分类
- 6.1 机器学习
- 6.2 文本分类
- 6.3 采样
- 6.4 随机森林算法
- 6.5 文本聚类
- 6.6 文本的主题建模
- 6.7 参考资料
- 6.8 本章小结
- 第7章 网络爬取
- 7.1 网络爬虫
- 7.2 编写第一个爬虫程序
- 7.3 Scra py中的数据流
- 7.4 站点地图蜘蛛
- 7.5 项管道
- 7.6 外部参考
- 7.7 本章小结
- 第8章 与其他Python库一同使用NLTK
- 8.1 NumPy
- 8.2 SciP y
- 8.3 Pandas
- 8.4 Matplotlib
- 8.5 外部参考
- 8.6 本章小结
- 第9章 使用Python进行社交媒体挖掘
- 9.1 数据收集
- 9.2 数据提取
- 9.3 地理可视化
- 9.4 本章小结
- 第10章 大规模的文本挖掘
- 10.1 在Hadoop上使用Python的不同方法
- 10.2 在Hadoop上运行NLTK
- 10.3 在Hadoop上运行scikit-learn
- 10.4 PySpark
- 10.5 本章小结
- 模块2 使用Python 3的NLTK 3进行文本处理
- 第1章 标记文本和WordNet的基础
- 1.1 引言
- 1.2 将文本标记成句子
- 1.3 将句子标记成单词
- 1.4 使用正则表达式标记语句
- 1.5 训练语句标记生成器
- 1.6 在已标记的语句中过滤停用词
- 1.7 查找WordNet中单词的Synset
- 1.8 在WordNet中查找词元和同义词
- 1.9 计算WordNet和Synset的相似度
- 1.10 发现单词搭配
- 第2章 替换和校正单词
- 2.1 引言
- 2.2 词干提取
- 2.3 使用WordNet进行词形还原
- 2.4 基于匹配的正则表达式替换单词
- 2.5 移除重复字符
- 2.6 使用Enchant进行拼写校正
- 2.7 替换同义词
- 2.8 使用反义词替换否定形式
- 第3章 创建语料库
- 3.1 引言
- 3.2 建立自定义语料库
- 3.3 创建词汇表语料库
- 3.4 创建已标记词性单词的语料库
- 3.5 创建已组块短语的语料库
- 3.6 创建已分类文本的语料库
- 3.7 创建已分类组块语料库读取器
- 3.8 懒惰语料库加载
- 3.9 创建自定义语料库视图
- 3.10 创建基于MongoDB的语料库读取器
- 3.11 在加锁文件的情况下编辑语料库
- 第4章 词性标注
- 4.1 引言
- 4.2 默认标注
- 4.3 训练一元组词性标注器
- 4.4 回退标注的组合标注器
- 4.5 训练和组合N元标注器
- 4.6 创建似然单词标签的模型
- 4.7 使用正则表达式标注
- 4.8 词缀标签
- 4.9 训练布里尔标注器
- 4.10 训练TnT标注器
- 4.11 使用WordNet进行标注
- 4.12 标注专有名词
- 4.13 基于分类器的标注
- 4.14 使用NLTK训练器训练标注器
- 第5章 提取组块
- 5.1 引言
- 5.2 使用正则表达式组块和隔断
- 5.3 使用正则表达式合并和拆分组块
- 5.4 使用正则表达式扩展和删除组块
- 5.5 使用正则表达式进行部分解析
- 5.6 训练基于标注器的组块器
- 5.7 基于分类的分块
- 5.8 提取命名实体
- 5.9 提取专有名词组块
- 5.10 提取部位组块
- 5.11 训练命名实体组块器
- 5.12 使用NLTK训练器训练组块器
- 第6章 转换组块与树
- 6.1 引言
- 6.2 过滤句子中无意义的单词
- 6.3 纠正动词形式
- 6.4 交换动词短语
- 6.5 交换名词基数
- 6.6 交换不定式短语
- 6.7 单数化复数名词
- 6.8 链接组块变换
- 6.9 将组块树转换为文本
- 6.10 平展深度树
- 6.11 创建浅树
- 6.12 转换树标签
- 第7章 文本分类
- 7.1 引言
- 7.2 词袋特征提取
- 7.3 训练朴素贝叶斯分类器
- 7.4 训练决策树分类器
- 7.5 训练最大熵分类器
- 7.6 训练scikit-learn分类器
- 7.7 衡量分类器的精准率和召回率
- 7.8 计算高信息量单词
- 7.9 使用投票组合分类器
- 7.10 使用多个二元分类器分类
- 7.11 使用NLTK训练器训练分类器
- 第8章 分布式进程和大型数据集的处理
- 8.1 引言
- 8.2 使用execnet进行分布式标注
- 8.3 使用execnet进行分布式组块
- 8.4 使用execnet并行处理列表
- 8.5 在Redis中存储频率分布
- 8.6 在Redis中存储条件频率分布
- 8.7 在Redis中存储有序字典
- 8.8 使用Redis和execnet进行分布式单词评分
- 第9章 解析特定的数据类型
- 9.1 引言
- 9.2 使用dateutil解析日期和时间
- 9.3 时区的查找和转换
- 9.4 使用lxml从HTML中提取URL
- 9.5 清理和剥离HTML
- 9.6 使用Beautiful Soup转换HTML实体
- 9.7 检测和转换字符编码
- 附录A 宾州treebank词性标签
- 模块3 使用Python掌握自然语言处理
- 第1章 使用字符串
- 1.1 标记化
- 1.2 规范化
- 1.3 替代和纠正标记
- 1.4 在文本上应用齐夫定律
- 1.5 相似性量度
- 1.6 本章小结
- 第2章 统计语言模型
- 2.1 单词频率
- 2.2 在MLE模型上应用平滑
- 2.3 为MLE指定回退机制
- 2.4 应用数据插值获得混合和匹配
- 2.5 应用困惑度评估语言模型
- 2.6 在建模语言中应用梅特罗波利斯-黑斯廷斯算法
- 2.7 在语言处理中应用吉布斯采样
- 2.8 本章小结
- 第3章 词语形态学——试一试
- 3.1 词语形态学
- 3.2 词根还原器
- 3.3 词形还原
- 3.4 开发用于非英语语言的词根还原器
- 3.5 词语形态分析器
- 3.6 词语形态生成器
- 3.7 搜索引擎
- 3.8 本章小结
- 第4章 词性标注
- 4.1 词性标注
- 4.2 创建POS标注的语料库
- 4.3 选择某个机器学习算法
- 4.4 涉及n元组方法的统计建模
- 4.5 使用POS标注的语料库开发组块器
- 4.6 本章小结
- 第5章 解析
- 5.1 解析
- 5.2 构建树库
- 5.3 从树库中提取上下文无关文法的规则
- 5.4 从CFG中创建概率上下文无关的文法
- 5.5 CYK图解析算法
- 5.6 厄雷图解析算法
- 5.7 本章小结
- 第6章 语义分析
- 6.1 语义分析
- 6.2 从Wordnet中生成同义词集ID
- 6.3 使用Wordnet消除歧义
- 6.4 本章小结
- 第7章 情感分析
- 7.1 情感分析
- 7.2 使用机器学习的情感分析
- 7.3 本章小结
- 第8章 信息检索——访问信息
- 8.1 信息检索
- 8.2 向量空间评分以及与查询操作器交互
- 8.3 利用隐含语义索引开发IR系统
- 8.4 文本摘要
- 8.5 问答系统
- 8.6 本章小结
- 第9章 话语分析
- 9.1 话语分析
- 9.2 本章小结
- 第10章 NLP系统的评估
- 10.1 对NLP系统进行评估的需求
- 10.2 IR系统的评估
- 10.3 错误识别的指标
- 10.4 基于词汇匹配的指标
- 10.5 基于语法匹配的指标
- 10.6 使用浅层语义匹配的指标
- 10.7 本章小结
- 参考书目
展开全部
出版方
人民邮电出版社
人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。
