科技
类型
7.6
豆瓣评分
可以朗读
语音朗读
267千字
字数
2025-05-01
发行日期
展开全部
主编推荐语
全程图解式讲解大模型。
内容简介
全书分为三部分,依次介绍语言模型的原理、应用及优化。
第一部分:理解语言模型(第1~3章),解析语言模型的核心概念,包括词元、嵌入向量及Transformer架构,帮助读者建立基础认知。
第二部分:使用预训练语言模型(第4~9章),介绍如何使用大模型进行文本分类、聚类、语义搜索、文本生成及多模态扩展,提升模型的应用能力。
第三部分:训练和微调语言模型(第10~12章),探讨大模型的训练与微调方法,包括嵌入模型的构建、分类任务的优化及生成式模型的微调,以适应特定需求。
目录
- 版权信息
- O'Reilly Media, Inc. 介绍
- 对本书的赞誉
- 对本书中文版的赞誉
- 译者序
- 中文版序
- 前言
- 第一部分 理解语言模型
- 第1章 大语言模型简介
- 1.1 什么是语言人工智能
- 1.2 语言人工智能的近期发展史
- 1.3 “LLM”定义的演变
- 1.4 LLM的训练范式
- 1.5 LLM的应用
- 1.6 开发和使用负责任的LLM
- 1.7 有限的资源就够了
- 1.8 与LLM交互
- 1.9 生成你的第一段文本
- 1.10 小结
- 第2章 词元和嵌入
- 2.1 LLM的分词
- 2.2 词元嵌入
- 2.3 文本嵌入(用于句子和整篇文档)
- 2.4 LLM之外的词嵌入
- 2.5 推荐系统中的嵌入
- 2.6 小结
- 第3章 LLM的内部机制
- 3.1 Transformer模型概述
- 3.2 Transformer架构的最新改进
- 3.3 小结
- 第二部分 使用预训练语言模型
- 第4章 文本分类
- 4.1 电影评论的情感分析
- 4.2 使用表示模型进行文本分类
- 4.3 模型选择
- 4.4 使用特定任务模型
- 4.5 利用嵌入向量的分类任务
- 4.6 使用生成模型进行文本分类
- 4.7 小结
- 第5章 文本聚类和主题建模
- 5.1 ArXiv文章:计算与语言
- 5.2 文本聚类的通用流程
- 5.3 从文本聚类到主题建模
- 5.4 小结
- 第6章 提示工程
- 6.1 使用文本生成模型
- 6.2 提示工程简介
- 6.3 高级提示工程
- 6.4 使用生成模型进行推理
- 6.5 输出验证
- 6.6 小结
- 第7章 高级文本生成技术与工具
- 7.1 模型输入/输出:基于LangChain加载量化模型
- 7.2 链:扩展LLM的能力
- 7.3 记忆:构建LLM的对话回溯能力
- 7.4 智能体:构建LLM系统
- 7.5 小结
- 第8章 语义搜索与RAG
- 8.1 语义搜索与RAG技术全景
- 8.2 语言模型驱动的语义搜索实践
- 8.3 RAG
- 8.4 小结
- 第9章 多模态LLM
- 9.1 视觉Transformer
- 9.2 多模态嵌入模型
- 9.3 让文本生成模型具备多模态能力
- 9.4 小结
- 第三部分 训练和微调语言模型
- 第10章 构建文本嵌入模型
- 10.1 嵌入模型
- 10.2 什么是对比学习
- 10.3 SBERT
- 10.4 构建嵌入模型
- 10.5 微调嵌入模型
- 10.6 无监督学习
- 10.7 小结
- 第11章 为分类任务微调表示模型
- 11.1 监督分类
- 11.2 少样本分类
- 11.3 基于掩码语言建模的继续预训练
- 11.4 命名实体识别
- 11.5 小结
- 第12章 微调生成模型
- 12.1 LLM训练三步走:预训练、监督微调和偏好调优
- 12.2 监督微调
- 12.3 使用QLoRA进行指令微调
- 12.4 评估生成模型
- 12.5 偏好调优、对齐
- 12.6 使用奖励模型实现偏好评估自动化
- 12.7 使用DPO进行偏好调优
- 12.8 小结
- 附录 图解DeepSeek-R1
- A.1 回顾:大模型的训练原理
- A.2 DeepSeek-R1训练方案
- 后记
- 作者简介
- 封面简介
- 链接资源
- 大模型面试题200问
展开全部
出版方
人民邮电出版社
人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。