展开全部

主编推荐语

系统解读Transformer架构,丰富案例玩转NLP应用开发。

内容简介

本书系统解析Transformer的核心原理,从理论到实践,帮助读者全面掌握其在语言模型中的应用,并通过丰富案例剖析技术细节。全书共12章,内容涵盖Transformer模型的架构原理、自注意力机制及其相对于传统方法的优势,并详细剖析BERT、GPT等经典衍生模型的应用。

书中围绕数据预处理、文本分类、序列标注、文本生成、多语言模型等核心任务,结合迁移学习、微调与优化技术,展示Transformer在语义匹配、问答系统和文本聚类等场景中的实际应用。针对企业级开发需求,还特别介绍了ONNX与TensorRT优化推理性能的最佳实践,为大规模数据处理及低资源部署提供了解决方案。

目录

  • 版权信息
  • 内容简介
  • 作者简介
  • 前言
  • 引言
  • 第1章 Transformer与自然语言处理概述
  • 1.1 Transformer的基础架构与原理
  • 1.2 深度学习经典架构CNN和RNN的局限性
  • 1.3 自注意力机制
  • 1.4 BERT双向编码器与GPT单向生成器
  • 1.5 基于Transformer的迁移学习
  • 1.6 Hugging Face平台开发基础
  • 1.7 本章小结
  • 1.8 思考题
  • 第2章 文本预处理与数据增强
  • 2.1 文本数据清洗与标准化
  • 2.2 分词与嵌入技术
  • 2.3 字符级别与词级别的嵌入方法
  • 2.4 数据集格式与标签处理
  • 2.5 数据增强方法
  • 2.6 本章小结
  • 2.7 思考题
  • 第3章 基于Transformer的文本分类
  • 3.1 传统的规则与机器学习的文本分类对比
  • 3.2 BERT模型在文本分类中的应用
  • 3.3 数据集加载与预处理
  • 3.4 文本分类中的微调技巧
  • 3.5 本章小结
  • 3.6 思考题
  • 第4章 依存句法与语义解析
  • 4.1 依存句法的基本概念
  • 4.2 基于Tree-LSTM的依存句法打分方法
  • 4.3 使用GNN实现依存关系
  • 4.4 Transformer在依存解析中的应用
  • 4.5 依存句法与语义角色标注的结合
  • 4.6 本章小结
  • 4.7 思考题
  • 第5章 序列标注与命名实体识别
  • 5.1 序列标注任务与常用方法
  • 5.2 双向LSTM与CRF的结合
  • 5.3 BERT在命名实体识别中的应用
  • 5.4 实体识别任务的模型评估
  • 5.5 结合Gazetteers与实体识别
  • 5.6 本章小结
  • 5.7 思考题
  • 第6章 文本生成任务的Transformer实现
  • 6.1 生成式文本任务的基本方法
  • 6.2 优化生成策略
  • 6.3 T5模型在文本摘要中的应用
  • 6.4 生成式Transformer模型的比较
  • 6.5 Transformer在对话生成中的应用
  • 6.6 文本生成的端到端实现
  • 6.7 本章小结
  • 6.8 思考题
  • 第7章 多语言模型与跨语言任务
  • 7.1 多语言词嵌入与对齐技术
  • 7.2 XLM与XLM-R的实现
  • 7.3 使用XLM-RoBERTa进行多语言文本分类
  • 7.4 跨语言模型中的翻译任务
  • 7.5 多语言模型的代码实现与评估
  • 7.6 本章小结
  • 7.7 思考题
  • 第8章 深度剖析注意力机制
  • 8.1 Scaled Dot-Product Attention的实现
  • 8.2 多头注意力的实现细节与优化
  • 8.3 层归一化与残差连接在注意力模型中的作用
  • 8.4 注意力机制在不同任务中的应用
  • 8.5 Attention Is All You Need论文中的代码实现
  • 8.6 本章小结
  • 8.7 思考题
  • 第9章 文本聚类与BERT主题建模
  • 9.1 文本聚类任务概述
  • 9.2 使用Sentence-BERT进行聚类
  • 9.3 BERT在主题建模中的应用
  • 9.4 本章小结
  • 9.5 思考题
  • 第10章 基于语义匹配的问答系统
  • 10.1 使用Sentence-BERT进行语义相似度计算
  • 10.2 语义匹配任务中的数据标注与处理
  • 10.3 基于BERT的问答系统
  • 10.4 使用DistilBERT进行MRC优化
  • 10.5 本章小结
  • 10.6 思考题
  • 第11章 常用模型微调技术
  • 11.1 微调基础概念
  • 11.2 使用领域数据微调BERT模型
  • 11.3 参数高效微调(PEFT)进阶
  • 11.4 本章小结
  • 11.5 思考题
  • 第12章 高级应用:企业级系统开发实战
  • 12.1 基于Transformer的情感分析综合案例
  • 12.2 使用ONNX和TensorRT优化推理性能
  • 12.3 构建NLP企业问答系统
  • 12.4 本章小结
  • 12.5 思考题
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

清华大学出版社

清华大学出版社成立于1980年6月,是由教育部主管、清华大学主办的综合出版单位。植根于“清华”这座久负盛名的高等学府,秉承清华人“自强不息,厚德载物”的人文精神,清华大学出版社在短短二十多年的时间里,迅速成长起来。清华大学出版社始终坚持弘扬科技文化产业、服务科教兴国战略的出版方向,把出版高等学校教学用书和科技图书作为主要任务,并为促进学术交流、繁荣出版事业设立了多项出版基金,逐渐形成了以出版高水平的教材和学术专著为主的鲜明特色,在教育出版领域树立了强势品牌。