展开全部

主编推荐语

全面解析Transformer架构,示范多领域应用,47个实验助力实践与深度学习。

内容简介

Transformer是大语言模型等大模型的现阶段主要架构。

本书从原理的角度系统地讲解序列监督学习、序列聚合、注意力机制、Transformer层及3种类型的Transformer架构,从应用的角度讲解并演示如何在自然语言处理、计算机视觉、信号处理、推荐系统、深度强化学习等领域使用Transformer架构完成文本分类、文本生成、机器翻译、语音识别、语音合成、图像分类、图像说明、视频分类、视频预测等任务,并从实践的角度通过47个循序渐进的实验引领读者使用PyTorch框架独立编程实现上述方法和架构,完成上述任务。

本书不仅适合作为相关专业本科生及研究生的专业课教材,也适合相关领域的从业者、科研人员及大模型应用爱好者参考。

目录

  • 版权信息
  • 作者简介
  • 内容简介
  • 前言
  • 第1章 引言
  • 1.1 从机器学习到深度学习
  • 1.2 Transformer架构
  • 1.3 PyTorch框架
  • 1.4 深度神经网络
  • 1.5 本书各章之间的联系
  • 1.6 本章小结
  • 1.7 思考与练习
  • 第2章 序列监督学习
  • 2.1 两种序列监督学习
  • 2.2 序列预测
  • 2.3 序列生成
  • 2.4 本章小结
  • 2.5 思考与练习
  • 第3章 序列聚合与注意力机制
  • 3.1 基于标量投影的序列聚合
  • 3.2 选择性序列聚合
  • 3.3 注意力机制与多头注意力机制
  • 3.4 本章小结
  • 3.5 思考与练习
  • 第4章 Transformer架构
  • 4.1 使用样本组训练序列预测模型
  • 4.2 Transformer中的层
  • 4.3 解码器型Transformer
  • 4.4 编码器型Transformer
  • 4.5 编解码器型Transformer
  • 4.6 本章小结
  • 4.7 思考与练习
  • 第5章 Transformer架构在自然语言处理领域的应用
  • 5.1 文本分类
  • 5.2 文本生成
  • 5.3 机器翻译
  • 5.4 语音分类
  • 5.5 语音转文本
  • 5.6 本章小结
  • 5.7 思考与练习
  • 第6章 Transformer架构在计算机视觉领域的应用
  • 6.1 图像分类
  • 6.2 图像说明
  • 6.3 视频分类
  • 6.4 视频预测
  • 6.5 本章小结
  • 6.6 思考与练习
  • 第7章 Transformer架构在其他领域的应用
  • 7.1 Transformer架构在数字信号处理中的应用
  • 7.2 Transformer架构在推荐系统中的应用
  • 7.3 Transformer架构在深度强化学习中的应用
  • 7.4 本章小结
  • 7.5 思考与练习
  • 附录A 实验参考程序及注释
  • A.1 第1章实验
  • A.2 第2章实验
  • A.3 第3章实验
  • A.4 第4章实验
  • A.5 第5章实验
  • A.6 第6章实验
  • A.7 第7章实验
  • 参考文献
  • 写在后面
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

清华大学出版社

清华大学出版社成立于1980年6月,是由教育部主管、清华大学主办的综合出版单位。植根于“清华”这座久负盛名的高等学府,秉承清华人“自强不息,厚德载物”的人文精神,清华大学出版社在短短二十多年的时间里,迅速成长起来。清华大学出版社始终坚持弘扬科技文化产业、服务科教兴国战略的出版方向,把出版高等学校教学用书和科技图书作为主要任务,并为促进学术交流、繁荣出版事业设立了多项出版基金,逐渐形成了以出版高水平的教材和学术专著为主的鲜明特色,在教育出版领域树立了强势品牌。