互联网
类型
可以朗读
语音朗读
210千字
字数
2025-03-01
发行日期
展开全部
主编推荐语
本书旨在让你快速、简单地上手大模型应用开发。
内容简介
本书为初学者提供了一份清晰、全面的“最小可用知识”,带领你快速了解GPT-4和ChatGPT的工作原理及优势,并在此基础上使用流行的Python编程语言构建大模型应用。升级版在旧版的基础上进行了全面更新,融入了大模型应用开发的最新进展,比如RAG、GPT-4新特性的应用解析等。本书提供了大量简单易学的示例,帮你理解相关概念并将其应用在自己的项目中。
准备好了吗?只需了解Python,你即可将本书作为进入大模型时代的启动手册,开发出自己的大模型应用。
目录
- 版权信息
- O'Reilly Media, Inc. 介绍
- 推荐序一 学习成为善用AI的人
- 推荐序二 开启一段有趣、有启发、有收获的冒险旅程
- 推荐序三 人人都要学会和AI相处
- 推荐序四 AI工程师:从智能革命的探索者到智能体时代的缔造者
- 推荐序五 未来正在生成中
- 推荐序六 AGI:不要旁观,要真正参与
- 推荐序七 AI是人类能力的指数级放大器
- 译者序 没有谁天生就是AI工程师
- 前言
- 第1章 初识GPT-4和ChatGPT
- 1.1 LLM概述
- 1.1.1 探索语言模型和NLP的基础
- 1.1.2 理解Transformer架构及其在LLM中的作用
- 1.1.3 解密GPT模型的词元化和预测步骤
- 1.1.4 将视觉整合到LLM中
- 1.2 GPT模型简史:从GPT-1到GPT-4
- 1.2.1 GPT-1
- 1.2.2 GPT-2
- 1.2.3 GPT-3
- 1.2.4 从GPT-3到InstructGPT
- 1.2.5 GPT-3.5、ChatGPT和Codex
- 1.2.6 GPT-4
- 1.2.7 人工智能向多模态演进
- 1.3 LLM用例和示例产品
- 1.3.1 Be My Eyes
- 1.3.2 摩根士丹利
- 1.3.3 可汗学院
- 1.3.4 多邻国
- 1.3.5 Yabble
- 1.3.6 Waymark
- 1.3.7 Inworld AI
- 1.4 警惕AI幻觉:限制与注意事项
- 1.5 借助高级功能释放GPT潜力
- 1.6 小结
- 第2章 深入了解OpenAI API
- 2.1 基本概念
- 2.2 OpenAI API中可用的模型
- 2.2.1 GPT Base
- 2.2.2 InstructGPT(遗留版)
- 2.2.3 GPT-3.5
- 2.2.4 GPT-4
- 2.3 在OpenAI Playground中使用GPT模型
- 2.4 入门:OpenAI Python库
- 2.4.1 OpenAI服务访问与API密钥
- 2.4.2 Hello World
- 2.5 使用聊天补全模型
- 2.5.1 聊天补全端点的输入选项
- 2.5.2 调整temperature和top_p
- 2.5.3 聊天补全端点的输出结果格式
- 2.5.4 视觉能力
- 2.5.5 请求JSON输出
- 2.6 使用其他文本补全模型
- 2.6.1 文本补全端点的输入选项
- 2.6.2 文本补全端点的输出结果格式
- 2.7 注意事项
- 2.7.1 定价和词元限制
- 2.7.2 安全与隐私:小心!
- 2.8 其他OpenAI API和功能
- 2.8.1 嵌入
- 2.8.2 审核
- 2.8.3 文本转语音
- 2.8.4 语音转文本
- 2.8.5 图像API
- 2.9 小结(含速查清单)
- 第3章 构建基于LLM的应用程序:功能与挑战
- 3.1 应用程序开发概述
- 3.1.1 API密钥管理
- 3.1.2 安全与数据隐私
- 3.2 软件架构设计原则
- 3.3 将LLM能力集成到你的项目中
- 3.3.1 对话能力
- 3.3.2 语言处理能力
- 3.3.3 人机交互能力
- 3.3.4 结合能力
- 3.4 示例项目
- 3.4.1 项目1:构建新闻生成器解决方案——语言处理
- 3.4.2 项目2:总结YouTube视频——语言处理
- 3.4.3 项目3:打造《塞尔达传说:旷野之息》专家——语言处理与对话
- 3.4.4 项目4:创建个人助理——人机界面
- 3.4.5 项目5:组织文档——语言处理
- 3.4.6 项目6:情感分析——语言处理
- 3.5 成本管理
- 3.6 基于LLM的应用程序的漏洞
- 3.6.1 分析输入和输出
- 3.6.2 提示词注入的不可避免性
- 3.7 合理使用外部API
- 3.7.1 处理错误和意外延迟问题
- 3.7.2 速率限制
- 3.7.3 提高响应能力,改善用户体验
- 3.8 小结
- 第4章 OpenAI高级LLM集成策略
- 4.1 提示工程
- 4.1.1 利用角色、上下文和任务设计有效的提示词
- 4.1.2 逐步思考
- 4.1.3 实现少样本学习
- 4.1.4 基于用户反馈的迭代优化
- 4.1.5 改善提示效果
- 4.2 微调
- 4.2.1 入门
- 4.2.2 使用OpenAI API进行微调
- 4.2.3 使用OpenAI的Web界面进行微调
- 4.2.4 微调应用程序
- 4.2.5 为电子邮件营销活动生成和微调合成数据
- 4.2.6 微调的成本
- 4.3 RAG
- 4.3.1 基础RAG
- 4.3.2 高级RAG
- 4.3.3 RAG的局限
- 4.4 策略选择
- 4.4.1 策略比较
- 4.4.2 评估
- 4.5 从普通应用程序到基于LLM的解决方案
- 4.5.1 提示词敏感性
- 4.5.2 非确定性
- 4.5.3 幻觉
- 4.6 小结
- 第5章 通过框架、插件等提升LLM的能力
- 5.1 LangChain框架
- 5.1.1 LangChain库
- 5.1.2 动态提示词
- 5.1.3 智能体和工具
- 5.1.4 记忆
- 5.1.5 嵌入
- 5.2 LlamaIndex框架
- 5.2.1 演示:10行代码实现RAG
- 5.2.2 LlamaIndex原则
- 5.2.3 定制化
- 5.3 GPT-4插件
- 5.3.1 概述
- 5.3.2 API
- 5.3.3 插件清单
- 5.3.4 OpenAPI规范
- 5.3.5 描述
- 5.4 GPTs
- 5.5 Assistants API
- 5.5.1 创建Assistants API
- 5.5.2 利用你的Assistants API管理对话
- 5.5.3 函数调用
- 5.5.4 OpenAI Web平台上的助手
- 5.6 小结
- 第6章 综合运用
- 6.1 关键要点
- 6.2 综合运用:助手用例
- 6.2.1 第一步:构思
- 6.2.2 第二步:定义需求
- 6.2.3 第三步:构建原型
- 6.2.4 第四步:改进、迭代
- 6.2.5 第五步:使解决方案更健壮
- 6.3 经验教训
- 关键术语表
- 工具、库和框架
- 作者简介
- 封面简介
- 附录A 部署私有化AI助手
- A.1 前置准备
- A.2 开始部署
- A.2.1 安装Ollama
- A.2.2 安装Dify社区版
- A.2.3 将DeepSeek接入Dify
- A.3 开始搭建AI应用
- A.3.1 DeepSeek AI聊天助手
- A.3.2 集成知识库的DeepSeek AI聊天助手
- A.3.3 DeepSeek AI Chatflow/Workflow应用
- A.4 常见问题
- A.4.1 Docker部署时的连接错误
- A.4.2 如何修改Ollama的服务地址和端口号
- 附录B DeepSeek-R1在Dify的集成方案
- B.1 三重集成方案
- B.1.1 DeepSeek官方API接入
- B.1.2 多家MaaS供应商集成
- B.1.3 本地部署方案
- B.2 结语
- 链接资源
展开全部
出版方
人民邮电出版社
人民邮电出版社是工业和信息化部主管的大型专业出版社,成立于1953年10月1日。人民邮电出版社坚持“立足信息产业、面向现代社会、传播科学知识、服务科教兴国”,致力于通信、计算机、电子技术、教材、少儿、经管、摄影、集邮、旅游、心理学等领域的专业图书出版。