自我提升
类型
9.1
豆瓣评分
可以朗读
语音朗读
428千字
字数
2025-11-01
发行日期
展开全部
主编推荐语
人工智能领域作者力作,涵盖自然语言处理与大语言模型核心知识。
内容简介
本书采用创新且实用的教学策略,巧妙融合理论基础与实践应用,深入剖析自然语言处理(Natural Language Processing,NLP)领域的新进展,以及大语言模型(Large Language Model,LLM)的原理。书中不仅系统阐述了LLM的理论基础,还通过实际项目案例展示了如何将这些模型应用于构建RAG系统。
本书遵循由浅入深的路径,从LLM的基础知识入手,详细阐释了模型的训练流程,并深入探讨了如何利用提示技术与模型进行高效交互。书中还重点介绍了两个在业界得到广泛认可的框架——LlamaIndex和LangChain,它们是开发RAG应用的强大工具。书中的项目案例不仅为读者提供了宝贵的实践经验,也能够加深读者对相关概念的理解和应用。
此外,书中进一步探讨了包括智能体和微调在内的高级技术,这些技术能够显著提升问答系统的性能。
目录
- 版权信息
- 内容提要
- 对本书的赞誉
- 作者简介
- 致谢
- 前言
- 资源与支持
- 第1章 LLM简介
- 1.1 语言模型简史
- 1.2 什么是LLM
- 1.3 LLM的组成
- 1.3.1 Transformer
- 1.3.2 语言建模
- 1.3.3 分词
- 1.3.4 嵌入
- 1.3.5 训练/微调
- 1.3.6 预测
- 1.3.7 上下文窗口
- 1.3.8 规模法则
- 1.3.9 提示词
- 1.3.10 LLM中的涌现能力及测试基准
- 1.3.11 LLM简史
- 1.3.12 项目:使用LLM(GPT-3.5 API)进行翻译
- 1.3.13 项目:通过小样本学习来控制LLM的输出
- 1.4 本章小结
- 第2章 LLM架构和概况
- 2.1 理解Transformer
- 2.1.1 论文“Attention Is All You Need”
- 2.1.2 架构实战
- 2.2 Transformer架构的设计选择
- 2.2.1 编码器-解码器架构
- 2.2.2 仅编码器架构
- 2.2.3 仅解码器架构
- 2.2.4 Transformer架构的优化技术
- 2.3 生成式预训练Transformer(GPT)架构
- 2.3.1 掩码自注意力
- 2.3.2 GPT的训练过程
- 2.3.3 MinGPT
- 2.4 LMM简介
- 2.4.1 常见架构和训练目标
- 2.4.2 开源版本的Flamingo
- 2.4.3 指令微调的LMM
- 2.4.4 探索LLaVA——一个指令微调的LMM
- 2.4.5 超越视觉和语言
- 2.5 专有模型vs.开放模型vs.开源模型
- 2.5.1 Cohere LLM
- 2.5.2 OpenAI的GPT-3.5 turbo、GPT-4o和GPT-4o mini
- 2.5.3 Anthropic的Claude 3模型
- 2.5.4 Google DeepMind的Gemini
- 2.5.5 Meta的LLaMA 2
- 2.5.6 Mistral LLM
- 2.6 LLM的应用和示例
- 2.6.1 商业与职业
- 2.6.2 法律与合规
- 2.6.3 医疗保健和健康
- 2.6.4 教育与研究
- 2.6.5 媒体与娱乐
- 2.6.6 技术与软件
- 2.6.7 个人发展与生活方式
- 2.6.8 金融与投资
- 2.6.9 运动与健康
- 2.6.10 其他
- 2.6.11 使用LLM的风险和伦理考量
- 2.7 本章小结
- 第3章 LLM实践
- 3.1 理解幻觉和偏见
- 3.1.1 通过控制输出减轻LLM的幻觉
- 3.1.2 解码方法
- 3.1.3 微调LLM
- 3.2 LLM性能评估
- 3.2.1 目标函数和评估指标
- 3.2.2 内在指标:困惑度
- 3.2.3 外部指标:基准测试
- 3.3 本章小结
- 第4章 提示技术简介
- 4.1 提示词和提示工程
- 4.2 提示技术
- 4.2.1 零样本提示
- 4.2.2 上下文学习和小样本提示
- 4.2.3 角色提示
- 4.2.4 链式提示
- 4.2.5 思维链提示
- 4.3 提示注入与安全
- 4.4 本章小结
- 第5章 RAG
- 5.1 为什么使用RAG
- 5.2 嵌入向量
- 5.3 向量数据库与向量存储
- 5.4 从头构建一个RAG管道
- 5.4.1 数据预处理
- 5.4.2 生成嵌入向量
- 5.4.3 查找相关文本块
- 5.4.4 测试余弦相似度
- 5.4.5 相似度计算实战
- 5.4.6 提示词增强
- 5.5 本章小结
- 第6章 LangChain和LlamaIndex简介
- 6.1 LLM框架
- 6.2 LangChain介绍
- 6.3 项目1:使用LangChain构建LLM驱动的应用
- 6.3.1 提示模板
- 6.3.2 摘要链示例
- 6.3.3 问答链示例
- 6.4 项目2:构建新闻文章摘要器
- 6.5 LlamaIndex介绍
- 6.5.1 数据连接器
- 6.5.2 节点
- 6.5.3 索引
- 6.5.4 查询引擎
- 6.5.5 路由器
- 6.5.6 保存和加载本地索引
- 6.6 LangChain、LlamaIndex与OpenAI Assistants
- 6.7 本章小结
- 第7章 使用LangChain进行提示
- 7.1 LangChain提示模板
- 7.2 小样本提示和样例选择器
- 7.2.1 人类与AI的信息交互
- 7.2.2 小样本提示
- 7.2.3 样例选择器
- 7.3 LangChain链
- 7.3.1 使用LLMChain生成文本
- 7.3.2 在会话链中增加记忆
- 7.3.3 使用顺序链连接链
- 7.3.4 调试链
- 7.3.5 定制链
- 7.4 项目1:使用输出解析器管理输出
- 7.5 项目2:新闻文章摘要器的改进
- 7.6 项目3:基于文本数据创建知识图谱
- 7.6.1 使用LangChain构建知识图谱
- 7.6.2 知识图谱可视化
- 7.7 本章小结
- 第8章 索引、检索与数据预处理
- 8.1 LangChain的索引和检索器
- 8.2 数据摄取
- 8.2.1 从PDF中加载数据
- 8.2.2 从网页中加载数据
- 8.2.3 从Google Drive中加载数据
- 8.3 文本切分器
- 8.3.1 基于字符长度的文本切分
- 8.3.2 基于逻辑终点的文本切分
- 8.3.3 基于NLTK的其他语种切分
- 8.3.4 基于SpaCy的其他语种切分
- 8.3.5 Markdown格式的文本切分
- 8.3.6 基于Token的文本切分
- 8.4 相似性搜索与嵌入向量
- 8.4.1 开源嵌入模型
- 8.4.2 Cohere嵌入
- 8.5 项目1:客服问答聊天机器人
- 8.5.1 工作流程
- 8.5.2 文档切分及向量化
- 8.5.3 基于策略设计提示词
- 8.5.4 基于LLM生成回答
- 8.6 项目2:基于Whisper和LangChain的YouTube视频摘要器
- 8.6.1 使用Whisper进行音频转录
- 8.6.2 切分文档并生成摘要
- 8.6.3 将转录内容添加到Deep Lake
- 8.7 项目3:为你的知识库创建语音助手
- 8.7.1 从Hugging Face Hub获取内容
- 8.7.2 加载和切分文本
- 8.7.3 嵌入向量以及Deep Lake库
- 8.7.4 创建语音助手
- 8.7.5 基于Streamlit构建交互界面
- 8.8 通过自批判链防止输出不良内容
- 8.9 在客服问答聊天机器人中防止输出不良内容
- 8.10 本章小结
- 第9章 高级RAG
- 9.1 从概念验证到产品:RAG系统的挑战
- 9.2 使用LlamaIndex的高级RAG技术
- 9.2.1 嵌入模型与LLM微调
- 9.2.2 RAG监控与评估
- 9.2.3 混合检索与嵌入向量检索
- 9.3 LlamaIndex查询
- 9.3.1 查询构建
- 9.3.2 查询扩展
- 9.3.3 查询转换
- 9.3.4 使用查询引擎来回答问题
- 9.3.5 重排序
- 9.3.6 递归检索与从小到大的检索
- 9.4 RAG指标与评估
- 9.4.1 RAG与LLM评估指标
- 9.4.2 检索评估指标
- 9.4.3 基于社区的评估工具
- 9.4.4 自定义RAG评估工作流
- 9.5 LangChain的LangSmith与LangChain Hub
- 9.6 本章小结
- 第10章 智能体
- 10.1 什么是智能体:大模型作为推理引擎
- 10.2 AutoGPT和BabyAGI概述
- 10.2.1 AutoGPT
- 10.2.2 使用AutoGPT与LangChain
- 10.2.3 BabyAGI
- 10.2.4 使用BabyAGI与LangChain
- 10.3 LangChain中的智能体仿真项目
- 10.3.1 CAMEL项目
- 10.3.2 生成式智能体
- 10.4 项目1:构建创建分析报告的智能体
- 10.5 项目2:使用LlamaIndex查询和汇总数据库
- 10.5.1 第1步:定义数据源并创建向量存储索引
- 10.5.2 第2步:配置查询引擎
- 10.5.3 第3步:开发会话智能体
- 10.5.4 第4步:为智能体添加自定义函数
- 10.6 项目3:使用OpenAI Assistants构建智能体
- 10.7 项目4:LangChain OpenGPTs
- 10.8 项目5:对PDF中的财务信息进行多模态分析
- 10.8.1 数据提取
- 10.8.2 存储在Deep Lake中
- 10.8.3 微调嵌入空间
- 10.8.4 聊天机器人实战
- 10.9 本章小结
- 第11章 微调
- 11.1 理解微调
- 11.2 LoRA
- 11.3 项目1:使用LoRA进行SFT
- 11.3.1 加载数据集
- 11.3.2 设置LoRA配置和训练超参数
- 11.3.3 合并LoRA和OPT参数
- 11.3.4 推理
- 11.4 项目2:使用SFT和LoRA进行金融情感分析
- 11.4.1 加载数据集
- 11.4.2 初始化模型和训练器
- 11.4.3 合并LoRA和OPT
- 11.4.4 推理
- 11.5 项目3:用医疗数据微调Cohere LLM
- 11.5.1 Cohere API
- 11.5.2 数据集
- 11.5.3 微调
- 11.6 RLHF
- 11.7 项目4:使用RLHF改进LLM
- 11.7.1 SFT
- 11.7.2 训练奖励模型
- 11.7.3 强化学习
- 11.7.4 推理
- 11.8 本章小结
- 第12章 部署与优化
- 12.1 模型蒸馏和教师模型
- 12.2 LLM部署优化:量化、剪枝和投机解码
- 12.2.1 模型量化
- 12.2.2 量化LLM
- 12.2.3 模型剪枝
- 12.2.4 投机解码
- 12.3 项目:使用谷歌云平台上的CPU部署量化模型
- 12.3.1 量化模型
- 12.3.2 使用量化模型进行推理
- 12.3.3 使用谷歌云平台上的计算引擎部署量化模型
- 12.4 在云服务提供商上部署开源LLM
- 12.5 本章小结
- 总结
展开全部
出版方
人民邮电出版社
人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。
