展开全部

主编推荐语

系统梳理大模型应用开发的全链条知识。

内容简介

本书详解大模型应用开发过程中涉及的理论、技术、方法、过程、工具和分析案例,为开发者搭建从理论到实践的桥梁,助力解决技术落地中的实际问题,推动大模型在工业、科研、服务等领域的规模化应用,配套示例源码、PPT课件、配图PDF文件、读者微信交流群。

全书共分12章,内容包括大模型基础、大模型架构、多模态大模型、提示词工程、大模型微调、检索增强生成、AI智能体、大模型应用、大模型应用架构、大模型开发框架、法律咨询智能助手、代码修复智能助手。

目录

  • 版权信息
  • 内容简介
  • 前言
  • 第1章 大模型基础
  • 1.1 语言模型基础
  • 1.1.1 基于统计方法的语言模型
  • 1.1.2 基于循环神经网络的语言模型
  • 1.1.3 基于Transformer架构的语言模型
  • 1.2 大模型发展历史
  • 1.2.1 统计语言模型奠基期
  • 1.2.2 神经网络语言模型探索期
  • 1.2.3 Transformer架构革命期
  • 1.2.4 大模型爆发增长期
  • 1.3 大模型的特点
  • 1.3.1 大模型的快思慢考
  • 1.3.2 大模型的优势与不足
  • 1.4 大模型行业应用场景中的优势与挑战
  • 1.4.1 教育领域:智能教育的革新与困境
  • 1.4.2 医疗领域:精准医疗的希望与隐忧
  • 1.4.3 金融领域:智能金融的变革与挑战
  • 1.4.4 电商领域:智能营销的机遇与难题
  • 1.5 本章小结
  • 1.6 参考文献
  • 第2章 大模型架构
  • 2.1 Encoder-Only架构
  • 2.1.1 BERT模型
  • 2.1.2 RoBERTa模型
  • 2.1.3 ALBERT模型
  • 2.1.4 ELECTRA语言模型
  • 2.2 Decoder-Only架构
  • 2.2.1 GPT系列语言模型
  • 2.2.2 LLaMA模型
  • 2.2.3 PaLM模型
  • 2.3 Encoder-Decoder架构
  • 2.3.1 T5模型
  • 2.3.2 BART语言模型
  • 2.3.3 GLM模型
  • 2.3.4 Switch Transformer
  • 2.4 编码器、解码器、编解码器架构对比
  • 2.5 本章小结
  • 2.6 参考文献
  • 第3章 多模态大模型
  • 3.1 多模态大模型基础
  • 3.1.1 多模态大模型的定义与特征
  • 3.1.2 多模态学习与单模态学习的区别
  • 3.1.3 多模态大模型的基本架构
  • 3.1.4 多模态对齐与融合技术简述
  • 3.2 多模态大模型的发展历程
  • 3.2.1 特征拼接与浅层交互模型阶段
  • 3.2.2 融合与对齐阶段
  • 3.2.3 大规模预训练阶段
  • 3.2.4 通用多模态大模型阶段
  • 3.3 多模态大模型介绍
  • 3.3.1 CLIP
  • 3.3.2 ALIGN
  • 3.3.3 Flamingo
  • 3.3.4 PaLI
  • 3.3.5 BLIP2
  • 3.3.6 LLaVA
  • 3.3.7 VisCPM
  • 3.3.8 ChatGPT-4V和GPT-4o
  • 3.3.9 Qwen-VL和Qwen-VL-Max
  • 3.3.10 Gemini+2.5
  • 3.4 多模态大模型的应用场景
  • 3.4.1 智能问答与对话系统
  • 3.4.2 智能推荐与搜索
  • 3.4.3 医疗影像与辅助诊断
  • 3.4.4 内容生成与编辑
  • 3.5 本章小结
  • 3.6 参考文献
  • 第4章 提示词工程
  • 4.1 技术介绍
  • 4.1.1 提示词工程的概念和作用
  • 4.1.2 提示词应用示例
  • 4.2 研究进展
  • 4.2.1 零样本提示
  • 4.2.2 少样本提示——以例示教的智慧
  • 4.2.3 思维链提示
  • 4.2.4 思维树——多路径探索的高级推理
  • 4.2.5 检索增强生成——知识外挂的智能问答
  • 4.2.6 ReAct框架——推理与行动的协同范式
  • 4.3 框架对比
  • 4.3.1 开源框架
  • 4.3.2 商用框架
  • 4.3.3 框架对比全景表
  • 4.3.4 小结与展望
  • 4.4 本章小结
  • 4.5 参考文献
  • 第5章 大模型微调
  • 5.1 大模型微调基础
  • 5.1.1 微调定义
  • 5.1.2 微调分类
  • 5.1.3 微调技术历史沿革
  • 5.2 微调流程
  • 5.2.1 数据集准备
  • 5.2.2 模型初始化
  • 5.2.3 训练环境配置
  • 5.2.4 模型微调
  • 5.2.5 评估验证
  • 5.2.6 部署上线
  • 5.2.7 监控维护
  • 5.3 微调的主流平台和框架
  • 5.3.1 Hugging Face Transformers
  • 5.3.2 LLaMA-Factory
  • 5.3.3 Unsloth
  • 5.3.4 MS-SWIFT
  • 5.3.5 百度千帆平台
  • 5.3.6 阿里云PAI
  • 5.3.7 讯飞星辰
  • 5.3.8 对比分析
  • 5.4 本章小结
  • 5.5 参考文献
  • 第6章 检索增强生成
  • 6.1 概念与内涵剖析
  • 6.1.1 RAG定义
  • 6.1.2 关键组件与工作原理
  • 6.1.3 与传统生成模型的区别与优势
  • 6.1.4 应用领域与实际案例
  • 6.2 技术演进与研究进展
  • 6.3 相关商用与开源框架对比
  • 6.3.1 LangFlow
  • 6.3.2 LlamaIndex
  • 6.3.3 Haystack
  • 6.3.4 LangChain
  • 6.3.5 Amazon Kendra
  • 6.3.6 Google Cloud Search
  • 6.3.7 框架优缺点对比
  • 6.3.8 RAG框架总结
  • 6.4 本章小结
  • 6.5 参考文献
  • 第7章 AI智能体
  • 7.1 AI智能体的概念与内涵
  • 7.1.1 AI智能体时代的开启
  • 7.1.2 AI智能体的核心概念与特征
  • 7.2 AI智能体核心技术与发展
  • 7.2.1 智能体的构建:核心模块与基本架构
  • 7.2.2 单智能体系统研究进展
  • 7.2.3 多智能体系统研究进展
  • 7.2.4 智能体的演进:自主优化与自我学习
  • 7.3 智能体构建与实践
  • 7.3.1 智能体构建框架的必要性与分类
  • 7.3.2 LangGraph:基于图结构的Agent编排框架
  • 7.3.3 AutoGen:多智能体协作的利器
  • 7.3.4 CrewAI:通过协作提升团队效率
  • 7.3.5 Dify:LLM应用一站式开发平台
  • 7.3.6 n8n:强大的工作流自动化与集成工具
  • 7.3.7 扣子:一站式AI Agent/Bot开发平台
  • 7.3.8 框架对比
  • 7.4 本章小结
  • 7.5 参考文献
  • 第8章 大模型应用
  • 8.1 大模型应用概念解析
  • 8.1.1 大模型应用的定义
  • 8.1.2 与传统应用系统的比较分析
  • 8.1.3 大模型应用内涵:基本结构与关键组件
  • 8.1.4 大模型应用外延与分类视角
  • 8.2 大模型应用范式
  • 8.2.1 嵌入式
  • 8.2.2 协同式
  • 8.2.3 自主式
  • 8.3 大模型应用开发流程
  • 8.3.1 需求理解与问题建模
  • 8.3.2 系统架构与模型接口设计
  • 8.3.3 智能模块设计与行为调控
  • 8.3.4 测试与质量评估
  • 8.3.5 部署上线与模型服务策略
  • 8.3.6 监控与运维反馈
  • 8.4 大模型应用典型产品
  • 8.4.1 智能检索工具
  • 8.4.2 编程辅助与代码生成
  • 8.4.3 文档处理与写作辅助
  • 8.4.4 多模态内容生成
  • 8.5 大模型应用面临的关键挑战
  • 8.5.1 模型能力的不确定性与幻觉问题
  • 8.5.2 交互控制与响应可解释性
  • 8.5.3 安全性、合规性与伦理问题
  • 8.5.4 应用部署的资源与算力瓶颈
  • 8.6 本章小结
  • 8.7 参考文献
  • 第9章 大模型应用架构
  • 9.1 大模型应用架构概述
  • 9.2 大模型应用架构层次
  • 9.3 基础设施层和运行环境层
  • 9.3.1 基础设施层
  • 9.3.2 运行环境层
  • 9.4 数据层
  • 9.4.1 核心组件
  • 9.4.2 管理和支撑机制
  • 9.5 模型层
  • 9.5.1 大模型
  • 9.5.2 向量模型
  • 9.5.3 重排序模型
  • 9.5.4 图像识别模型
  • 9.5.5 语言-语言模型
  • 9.5.6 模型微调
  • 9.6 推理部署层
  • 9.7 能力层
  • 9.7.1 流程控制
  • 9.7.2 核心功能
  • 9.8 安全层
  • 9.9 应用层
  • 9.9.1 智能问答
  • 9.9.2 智能运维
  • 9.9.3 智能客服
  • 9.9.4 数字员工
  • 9.10 本章小结
  • 9.11 参考文献
  • 第10章 大模型开发框架
  • 10.1 开发框架整体结构
  • 10.2 数据层
  • 10.2.1 向量数据库
  • 10.2.2 文档解析引擎
  • 10.2.3 数据处理工具
  • 10.3 模型层
  • 10.3.1 开源模型
  • 10.3.2 微调技术栈
  • 10.4 推理层
  • 10.4.1 推理引擎
  • 10.4.2 本地化部署
  • 10.5 工具链层
  • 10.5.1 开发框架
  • 10.5.2 增强组件
  • 10.6 接口层
  • 10.6.1 API网关
  • 10.6.2 通信协议
  • 10.7 应用层
  • 10.7.1 低代码开发平台
  • 10.7.2 具体开发平台
  • 10.8 本章小结
  • 10.9 参考文献
  • 第11章 法律咨询智能助手
  • 11.1 需求分析
  • 11.2 系统架构
  • 11.2.1 系统功能模块
  • 11.2.2 系统架构设计
  • 11.3 关键技术
  • 11.3.1 法规文档预处理
  • 11.3.2 自动构建法律法规知识图谱
  • 11.3.3 案例特征要素提取
  • 11.3.4 实体对齐
  • 11.3.5 法条检索
  • 11.3.6 法条检查
  • 11.3.7 历史案例库构建算法
  • 11.3.8 案件审理结构化报告生成
  • 11.4 系统实现
  • 11.4.1 法规文档预处理的实现
  • 11.4.2 自动构建法律法规知识图谱的实现
  • 11.4.3 案例特征要素提取的实现
  • 11.4.4 实体对齐的实现
  • 11.4.5 法条检索的实现
  • 11.4.6 法条检查的实现
  • 11.4.7 历史案例库构建算法的实现
  • 11.4.8 案件审理结构化报告生成
  • 11.5 本章小结
  • 11.6 参考文献
  • 第12章 代码修复智能助手
  • 12.1 需求分析
  • 12.2 系统架构
  • 12.2.1 业务架构
  • 12.2.2 技术架构
  • 12.3 关键技术
  • 12.3.1 代码问题精确定位技术
  • 12.3.2 深度代码语义理解技术
  • 12.3.3 多模态信息智能融合技术
  • 12.3.4 增量学习与知识迁移技术
  • 12.3.5 基于强化学习的修复策略优化技术
  • 12.3.6 智能代码生成技术
  • 12.3.7 基于程序分析的漏洞检测技术
  • 12.4 系统实现
  • 12.4.1 Issue智能解析模块
  • 12.4.2 代码依赖关系分析模块
  • 12.4.3 智能修复策略生成模块
  • 12.4.4 自动化测试验证模块
  • 12.4.5 持续学习与优化模块
  • 12.5 本章小结
  • 12.6 参考文献
展开全部

评分及书评

尚无评分
目前还没人评分

出版方

清华大学出版社

清华大学出版社成立于1980年6月,是由教育部主管、清华大学主办的综合出版单位。植根于“清华”这座久负盛名的高等学府,秉承清华人“自强不息,厚德载物”的人文精神,清华大学出版社在短短二十多年的时间里,迅速成长起来。清华大学出版社始终坚持弘扬科技文化产业、服务科教兴国战略的出版方向,把出版高等学校教学用书和科技图书作为主要任务,并为促进学术交流、繁荣出版事业设立了多项出版基金,逐渐形成了以出版高水平的教材和学术专著为主的鲜明特色,在教育出版领域树立了强势品牌。