展开全部

主编推荐语

人工智能领域作者力作,涵盖自然语言处理与大语言模型核心知识。

内容简介

本书采用创新且实用的教学策略,巧妙融合理论基础与实践应用,深入剖析自然语言处理(Natural Language Processing,NLP)领域的新进展,以及大语言模型(Large Language Model,LLM)的原理。书中不仅系统阐述了LLM的理论基础,还通过实际项目案例展示了如何将这些模型应用于构建RAG系统。

本书遵循由浅入深的路径,从LLM的基础知识入手,详细阐释了模型的训练流程,并深入探讨了如何利用提示技术与模型进行高效交互。书中还重点介绍了两个在业界得到广泛认可的框架——LlamaIndex和LangChain,它们是开发RAG应用的强大工具。书中的项目案例不仅为读者提供了宝贵的实践经验,也能够加深读者对相关概念的理解和应用。

此外,书中进一步探讨了包括智能体和微调在内的高级技术,这些技术能够显著提升问答系统的性能。

目录

  • 版权信息
  • 内容提要
  • 对本书的赞誉
  • 作者简介
  • 致谢
  • 前言
  • 资源与支持
  • 第1章 LLM简介
  • 1.1 语言模型简史
  • 1.2 什么是LLM
  • 1.3 LLM的组成
  • 1.3.1 Transformer
  • 1.3.2 语言建模
  • 1.3.3 分词
  • 1.3.4 嵌入
  • 1.3.5 训练/微调
  • 1.3.6 预测
  • 1.3.7 上下文窗口
  • 1.3.8 规模法则
  • 1.3.9 提示词
  • 1.3.10 LLM中的涌现能力及测试基准
  • 1.3.11 LLM简史
  • 1.3.12 项目:使用LLM(GPT-3.5 API)进行翻译
  • 1.3.13 项目:通过小样本学习来控制LLM的输出
  • 1.4 本章小结
  • 第2章 LLM架构和概况
  • 2.1 理解Transformer
  • 2.1.1 论文“Attention Is All You Need”
  • 2.1.2 架构实战
  • 2.2 Transformer架构的设计选择
  • 2.2.1 编码器-解码器架构
  • 2.2.2 仅编码器架构
  • 2.2.3 仅解码器架构
  • 2.2.4 Transformer架构的优化技术
  • 2.3 生成式预训练Transformer(GPT)架构
  • 2.3.1 掩码自注意力
  • 2.3.2 GPT的训练过程
  • 2.3.3 MinGPT
  • 2.4 LMM简介
  • 2.4.1 常见架构和训练目标
  • 2.4.2 开源版本的Flamingo
  • 2.4.3 指令微调的LMM
  • 2.4.4 探索LLaVA——一个指令微调的LMM
  • 2.4.5 超越视觉和语言
  • 2.5 专有模型vs.开放模型vs.开源模型
  • 2.5.1 Cohere LLM
  • 2.5.2 OpenAI的GPT-3.5 turbo、GPT-4o和GPT-4o mini
  • 2.5.3 Anthropic的Claude 3模型
  • 2.5.4 Google DeepMind的Gemini
  • 2.5.5 Meta的LLaMA 2
  • 2.5.6 Mistral LLM
  • 2.6 LLM的应用和示例
  • 2.6.1 商业与职业
  • 2.6.2 法律与合规
  • 2.6.3 医疗保健和健康
  • 2.6.4 教育与研究
  • 2.6.5 媒体与娱乐
  • 2.6.6 技术与软件
  • 2.6.7 个人发展与生活方式
  • 2.6.8 金融与投资
  • 2.6.9 运动与健康
  • 2.6.10 其他
  • 2.6.11 使用LLM的风险和伦理考量
  • 2.7 本章小结
  • 第3章 LLM实践
  • 3.1 理解幻觉和偏见
  • 3.1.1 通过控制输出减轻LLM的幻觉
  • 3.1.2 解码方法
  • 3.1.3 微调LLM
  • 3.2 LLM性能评估
  • 3.2.1 目标函数和评估指标
  • 3.2.2 内在指标:困惑度
  • 3.2.3 外部指标:基准测试
  • 3.3 本章小结
  • 第4章 提示技术简介
  • 4.1 提示词和提示工程
  • 4.2 提示技术
  • 4.2.1 零样本提示
  • 4.2.2 上下文学习和小样本提示
  • 4.2.3 角色提示
  • 4.2.4 链式提示
  • 4.2.5 思维链提示
  • 4.3 提示注入与安全
  • 4.4 本章小结
  • 第5章 RAG
  • 5.1 为什么使用RAG
  • 5.2 嵌入向量
  • 5.3 向量数据库与向量存储
  • 5.4 从头构建一个RAG管道
  • 5.4.1 数据预处理
  • 5.4.2 生成嵌入向量
  • 5.4.3 查找相关文本块
  • 5.4.4 测试余弦相似度
  • 5.4.5 相似度计算实战
  • 5.4.6 提示词增强
  • 5.5 本章小结
  • 第6章 LangChain和LlamaIndex简介
  • 6.1 LLM框架
  • 6.2 LangChain介绍
  • 6.3 项目1:使用LangChain构建LLM驱动的应用
  • 6.3.1 提示模板
  • 6.3.2 摘要链示例
  • 6.3.3 问答链示例
  • 6.4 项目2:构建新闻文章摘要器
  • 6.5 LlamaIndex介绍
  • 6.5.1 数据连接器
  • 6.5.2 节点
  • 6.5.3 索引
  • 6.5.4 查询引擎
  • 6.5.5 路由器
  • 6.5.6 保存和加载本地索引
  • 6.6 LangChain、LlamaIndex与OpenAI Assistants
  • 6.7 本章小结
  • 第7章 使用LangChain进行提示
  • 7.1 LangChain提示模板
  • 7.2 小样本提示和样例选择器
  • 7.2.1 人类与AI的信息交互
  • 7.2.2 小样本提示
  • 7.2.3 样例选择器
  • 7.3 LangChain链
  • 7.3.1 使用LLMChain生成文本
  • 7.3.2 在会话链中增加记忆
  • 7.3.3 使用顺序链连接链
  • 7.3.4 调试链
  • 7.3.5 定制链
  • 7.4 项目1:使用输出解析器管理输出
  • 7.5 项目2:新闻文章摘要器的改进
  • 7.6 项目3:基于文本数据创建知识图谱
  • 7.6.1 使用LangChain构建知识图谱
  • 7.6.2 知识图谱可视化
  • 7.7 本章小结
  • 第8章 索引、检索与数据预处理
  • 8.1 LangChain的索引和检索器
  • 8.2 数据摄取
  • 8.2.1 从PDF中加载数据
  • 8.2.2 从网页中加载数据
  • 8.2.3 从Google Drive中加载数据
  • 8.3 文本切分器
  • 8.3.1 基于字符长度的文本切分
  • 8.3.2 基于逻辑终点的文本切分
  • 8.3.3 基于NLTK的其他语种切分
  • 8.3.4 基于SpaCy的其他语种切分
  • 8.3.5 Markdown格式的文本切分
  • 8.3.6 基于Token的文本切分
  • 8.4 相似性搜索与嵌入向量
  • 8.4.1 开源嵌入模型
  • 8.4.2 Cohere嵌入
  • 8.5 项目1:客服问答聊天机器人
  • 8.5.1 工作流程
  • 8.5.2 文档切分及向量化
  • 8.5.3 基于策略设计提示词
  • 8.5.4 基于LLM生成回答
  • 8.6 项目2:基于Whisper和LangChain的YouTube视频摘要器
  • 8.6.1 使用Whisper进行音频转录
  • 8.6.2 切分文档并生成摘要
  • 8.6.3 将转录内容添加到Deep Lake
  • 8.7 项目3:为你的知识库创建语音助手
  • 8.7.1 从Hugging Face Hub获取内容
  • 8.7.2 加载和切分文本
  • 8.7.3 嵌入向量以及Deep Lake库
  • 8.7.4 创建语音助手
  • 8.7.5 基于Streamlit构建交互界面
  • 8.8 通过自批判链防止输出不良内容
  • 8.9 在客服问答聊天机器人中防止输出不良内容
  • 8.10 本章小结
  • 第9章 高级RAG
  • 9.1 从概念验证到产品:RAG系统的挑战
  • 9.2 使用LlamaIndex的高级RAG技术
  • 9.2.1 嵌入模型与LLM微调
  • 9.2.2 RAG监控与评估
  • 9.2.3 混合检索与嵌入向量检索
  • 9.3 LlamaIndex查询
  • 9.3.1 查询构建
  • 9.3.2 查询扩展
  • 9.3.3 查询转换
  • 9.3.4 使用查询引擎来回答问题
  • 9.3.5 重排序
  • 9.3.6 递归检索与从小到大的检索
  • 9.4 RAG指标与评估
  • 9.4.1 RAG与LLM评估指标
  • 9.4.2 检索评估指标
  • 9.4.3 基于社区的评估工具
  • 9.4.4 自定义RAG评估工作流
  • 9.5 LangChain的LangSmith与LangChain Hub
  • 9.6 本章小结
  • 第10章 智能体
  • 10.1 什么是智能体:大模型作为推理引擎
  • 10.2 AutoGPT和BabyAGI概述
  • 10.2.1 AutoGPT
  • 10.2.2 使用AutoGPT与LangChain
  • 10.2.3 BabyAGI
  • 10.2.4 使用BabyAGI与LangChain
  • 10.3 LangChain中的智能体仿真项目
  • 10.3.1 CAMEL项目
  • 10.3.2 生成式智能体
  • 10.4 项目1:构建创建分析报告的智能体
  • 10.5 项目2:使用LlamaIndex查询和汇总数据库
  • 10.5.1 第1步:定义数据源并创建向量存储索引
  • 10.5.2 第2步:配置查询引擎
  • 10.5.3 第3步:开发会话智能体
  • 10.5.4 第4步:为智能体添加自定义函数
  • 10.6 项目3:使用OpenAI Assistants构建智能体
  • 10.7 项目4:LangChain OpenGPTs
  • 10.8 项目5:对PDF中的财务信息进行多模态分析
  • 10.8.1 数据提取
  • 10.8.2 存储在Deep Lake中
  • 10.8.3 微调嵌入空间
  • 10.8.4 聊天机器人实战
  • 10.9 本章小结
  • 第11章 微调
  • 11.1 理解微调
  • 11.2 LoRA
  • 11.3 项目1:使用LoRA进行SFT
  • 11.3.1 加载数据集
  • 11.3.2 设置LoRA配置和训练超参数
  • 11.3.3 合并LoRA和OPT参数
  • 11.3.4 推理
  • 11.4 项目2:使用SFT和LoRA进行金融情感分析
  • 11.4.1 加载数据集
  • 11.4.2 初始化模型和训练器
  • 11.4.3 合并LoRA和OPT
  • 11.4.4 推理
  • 11.5 项目3:用医疗数据微调Cohere LLM
  • 11.5.1 Cohere API
  • 11.5.2 数据集
  • 11.5.3 微调
  • 11.6 RLHF
  • 11.7 项目4:使用RLHF改进LLM
  • 11.7.1 SFT
  • 11.7.2 训练奖励模型
  • 11.7.3 强化学习
  • 11.7.4 推理
  • 11.8 本章小结
  • 第12章 部署与优化
  • 12.1 模型蒸馏和教师模型
  • 12.2 LLM部署优化:量化、剪枝和投机解码
  • 12.2.1 模型量化
  • 12.2.2 量化LLM
  • 12.2.3 模型剪枝
  • 12.2.4 投机解码
  • 12.3 项目:使用谷歌云平台上的CPU部署量化模型
  • 12.3.1 量化模型
  • 12.3.2 使用量化模型进行推理
  • 12.3.3 使用谷歌云平台上的计算引擎部署量化模型
  • 12.4 在云服务提供商上部署开源LLM
  • 12.5 本章小结
  • 总结
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

人民邮电出版社

人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。