科技
类型
可以朗读
语音朗读
368千字
字数
No.71
科学技术
2025-05-01
发行日期
展开全部
主编推荐语
基于PyTorch构建大语言模型,探讨生成式人工智能的底层机制。
内容简介
本书通过从零开始构建生成式人工智能模型来探讨生成式人工智能的底层机制,并使用PyTorch对生成式人工智能模型进行编程的实践指导,以期让读者在了解生成对抗网络(GAN)、变分自编码器(VAE)、循环神经网络(RNN)、Transformer、扩散模型、大语言模型(LLM)和LangChain等技术原理之后,能构建可生成形状、数字、图像、文本和音乐的生成式人工智能模型。
目录
- 版权信息
- 内容提要
- 推荐序
- 序
- 致谢
- 关于本书
- 作者简介
- 封面主图简介
- 资源与支持
- 第一部分 生成式人工智能简介
- 第1章 生成式人工智能和PyTorch
- 1.1 生成式人工智能和PyTorch简介
- 1.2 生成对抗网络(GAN)
- 1.3 Transformer
- 1.4 为什么要从零开始构建生成模型
- 1.5 小结
- 第2章 使用PyTorch进行深度学习
- 2.1 PyTorch中的数据类型
- 2.2 使用PyTorch完成端到端深度学习项目
- 2.3 二分类
- 2.4 多类别分类
- 2.5 小结
- 第3章 生成对抗网络:生成形状和数字
- 3.1 训练GAN的步骤
- 3.2 准备训练数据
- 3.3 构建GAN
- 3.4 训练GAN并使用GAN生成形状
- 3.5 用模式生成数字
- 3.6 小结
- 第二部分 图像生成
- 第4章 使用GAN生成图像
- 4.1 使用GAN生成服装灰度图像
- 4.2 卷积层
- 4.3 转置卷积和批量归一化
- 4.4 彩色动漫人脸图像
- 4.5 深度卷积GAN(DCGAN)
- 4.6 小结
- 第5章 在生成图像中选择特征
- 5.1 眼镜数据集
- 5.2 cGAN和沃瑟斯坦距离
- 5.3 构建cGAN
- 5.4 训练cGAN
- 5.5 在生成图像中选择特征的方法
- 5.6 小结
- 第6章 CycleGAN:将金发转换为黑发
- 6.1 CycleGAN和循环一致性损失
- 6.2 名人人脸数据集
- 6.3 构建CycleGAN模型
- 6.4 用CycleGAN在黑发和金发之间转换
- 6.5 小结
- 第7章 利用变分自编码器生成图像
- 7.1 自编码器概述
- 7.2 构建并训练能生成数字的自编码器
- 7.3 变分自编码器
- 7.4 生成人脸图像的变分自编码器
- 7.5 小结
- 第三部分 自然语言处理和Transformer
- 第8章 利用循环神经网络生成文本
- 8.1 循环神经网络(RNN)简介
- 8.2 自然语言处理(NLP)的基本原理
- 8.3 准备数据以训练LSTM模型
- 8.4 构建并训练LSTM模型
- 8.5 使用训练好的LSTM模型生成文本
- 8.6 小结
- 第9章 实现注意力机制和Transformer
- 9.1 注意力机制和Transformer
- 9.2 构建编码器
- 9.3 构建编码器-解码器Transformer
- 9.4 将所有部件组合在一起
- 9.5 小结
- 第10章 训练能将英语翻译成法语的Transformer
- 10.1 子词词元化
- 10.2 词嵌入和位置编码
- 10.3 训练Transformer将英语翻译成法语
- 10.4 用训练好的模型将英语翻译成法语
- 10.5 小结
- 第11章 从零开始构建GPT
- 11.1 GPT-2的架构和因果自注意力
- 11.2 从零开始构建GPT-2XL
- 11.3 载入预训练权重并生成文本
- 11.4 小结
- 第12章 训练生成文本的Transformer
- 12.1 从零开始构建并训练GPT
- 12.2 海明威小说的文本词元化
- 12.3 构建用于生成文本的GPT
- 12.4 训练GPT模型以生成文本
- 12.5 小结
- 第四部分 实际应用和新进展
- 第13章 使用MuseGAN生成音乐
- 13.1 音乐的数字化表示
- 13.2 音乐生成所用的蓝图
- 13.3 准备MuseGAN所需的训练数据
- 13.4 构建MuseGAN
- 13.5 训练MuseGAN以生成音乐
- 13.6 小结
- 第14章 构建并训练音乐Transformer
- 14.1 音乐Transformer简介
- 14.2 词元化音乐作品
- 14.3 构建用于生成音乐的GPT
- 14.4 训练和使用音乐Transformer
- 14.5 小结
- 第15章 扩散模型和文生图Transformer
- 15.1 去噪扩散模型简介
- 15.2 准备训练数据
- 15.3 构建去噪U-Net模型
- 15.4 训练和使用去噪U-Net模型
- 15.5 文生图Transformer
- 15.6 小结
- 第16章 预训练LLM和LangChain库
- 16.1 使用OpenAI API生成内容
- 16.2 LangChain简介
- 16.3 用LangChain创建博学多才的零样本智能体
- 16.4 LLM的局限性和伦理问题
- 16.5 小结
- 附录A 安装Python、Jupyter Notebook和PyTorch
- A.1 安装Python并设置虚拟环境
- A.2 安装PyTorch
- 附录B 阅读本书需要掌握的基础知识
- B.1 深度学习和深度神经网络
- B.2 训练深度神经网络
展开全部
出版方
人民邮电出版社
人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。