互联网
类型
可以朗读
语音朗读
123千字
字数
2025-07-01
发行日期
展开全部
主编推荐语
本书围绕大语言模型应用程序的安全问题展开。
内容简介
全书共12章,分三个部分层层递进。
第一部分(第1-3章)以真实案例引入大语言模型应用程序面临的安全挑战,介绍作者创立的应对项目及经验,同时探讨大语言模型应用架构与数据流控制的重要性,搭建知识框架。
第二部分(第4-9章)剖析开发大语言模型应用程序的主要风险,既包含注入攻击、敏感信息泄露等传统安全风险,也涵盖训练数据投毒、幻觉等新兴AI系统特有的问题,每章通过实际案例分析,揭示风险及影响,并给出预防和减轻风险的建议。
第三部分(第10-12章)通过科幻故事案例警示安全漏洞叠加的危害,阐述将安全实践融入软件开发全流程的方法,并展望大语言模型与AI技术的发展趋势,引入负责任的人工智能软件工程(RAISE)框架,助力读者维护软件安全。
目录
- 版权信息
- O'Reilly Media, Inc.介绍
- 本书赞誉
- 译者序
- 前言
- 第1章 聊天机器人之殇
- 1.1 让我们谈谈Tay
- 1.2 Tay的光速堕落
- 1.3 为什么Tay会失控
- 1.4 这是一个棘手的问题
- 第2章 OWASP大语言模型应用十大安全风险
- 2.1 关于OWASP
- 2.2 大语言模型应用十大风险项目
- 2.2.1 项目执行
- 2.2.2 反响
- 2.2.3 成功的关键
- 2.3 本书与十大风险榜单
- 第3章 架构与信任边界
- 3.1 人工智能、神经网络和大语言模型:三者有何区别
- 3.2 Transformer革命:起源、影响及其与LLM的关系
- 3.2.1 Transformer的起源
- 3.2.2 Transformer架构对AI的影响
- 3.3 基于大语言模型的应用类型
- 3.4 大语言模型应用架构
- 3.4.1 信任边界
- 3.4.2 模型
- 3.4.3 用户交互
- 3.4.4 训练数据
- 3.4.5 访问实时外部数据源
- 3.4.6 访问内部服务
- 3.5 结论
- 第4章 提示词注入
- 4.1 提示词注入攻击案例
- 4.1.1 强势诱导
- 4.1.2 反向心理学
- 4.1.3 误导
- 4.1.4 通用和自动化对抗性提示
- 4.2 提示词注入的影响
- 4.3 直接与间接提示词注入
- 4.3.1 直接提示词注入
- 4.3.2 间接提示词注入
- 4.3.3 关键差异
- 4.4 缓解提示词注入风险
- 4.4.1 速率限制
- 4.4.2 基于规则的输入过滤
- 4.4.3 使用专用大语言模型进行过滤
- 4.4.4 添加提示结构
- 4.4.5 对抗性训练
- 4.4.6 悲观信任边界定义
- 4.5 结论
- 第5章 你的大语言模型是否知道得太多了
- 5.1 现实世界中的案例
- 5.1.1 Lee Luda案例
- 5.1.2 GitHub Copilot和OpenAI的Codex
- 5.2 知识获取方法
- 5.3 模型训练
- 5.3.1 基础模型训练
- 5.3.2 基础模型的安全考虑
- 5.3.3 模型微调
- 5.3.4 训练风险
- 5.4 检索增强生成
- 5.4.1 直接网络访问
- 5.4.2 访问数据库
- 5.5 从用户交互中学习
- 5.6 结论
- 第6章 语言模型会做电子羊的梦吗
- 6.1 为什么大语言模型会产生幻觉
- 6.2 幻觉的类型
- 6.3 实例分析
- 6.3.1 虚构的法律先例
- 6.3.2 航空公司聊天机器人诉讼案
- 6.3.3 无意的人格诋毁
- 6.3.4 开源包幻觉现象
- 6.4 谁该负责
- 6.5 缓解最佳实践
- 6.5.1 扩展领域特定知识
- 6.5.2 思维链推理:提高准确性的新路径
- 6.5.3 反馈循环:用户输入在降低风险中的作用
- 6.5.4 明确传达预期用途和局限性
- 6.5.5 用户教育:以知识赋能用户
- 6.6 结论
- 第7章 不要相信任何人
- 7.1 零信任解码
- 7.2 为什么要如此偏执
- 7.3 为大模型实施零信任架构
- 7.3.1 警惕过度授权
- 7.3.2 确保输出处理的安全性
- 7.4 构建输出过滤器
- 7.4.1 使用正则表达式查找个人信息
- 7.4.2 评估毒性
- 7.4.3 将过滤器链接到大模型
- 7.4.4 安全转义
- 7.5 结论
- 第8章 保护好你的钱包
- 8.1 拒绝服务攻击
- 8.1.1 基于流量的攻击
- 8.1.2 协议攻击
- 8.1.3 应用层攻击
- 8.1.4 史诗级拒绝服务攻击:Dyn事件
- 8.2 针对大模型的模型拒绝服务攻击
- 8.2.1 稀缺资源攻击
- 8.2.2 上下文窗口耗尽
- 8.2.3 不可预测的用户输入
- 8.3 拒绝钱包攻击
- 8.4 模型克隆
- 8.5 缓解策略
- 8.5.1 特定领域防护
- 8.5.2 输入验证和清理
- 8.5.3 严格的速率限制
- 8.5.4 资源使用上限
- 8.5.5 监控和告警
- 8.5.6 财务阈值和告警
- 8.6 结论
- 第9章 寻找最薄弱环节
- 9.1 供应链基础
- 9.1.1 软件供应链安全
- 9.1.2 Equifax数据泄露事件
- 9.1.3 SolarWinds黑客攻击
- 9.1.4 Log4Shell漏洞
- 9.2 理解大语言模型供应链
- 9.2.1 开源模型风险
- 9.2.2 训练数据污染
- 9.2.3 意外不安全的训练数据
- 9.2.4 不安全的插件
- 9.3 建立供应链追踪工件
- 9.3.1 软件物料清单的重要性
- 9.3.2 模型卡片
- 9.3.3 模型卡片与软件物料清单的比较
- 9.3.4 CycloneDX:SBOM标准
- 9.3.5 机器学习物料清单的兴起
- 9.3.6 构建机器学习物料清单示例
- 9.4 大语言模型供应链安全的未来
- 9.4.1 数字签名和水印技术
- 9.4.2 漏洞分类和数据库
- 9.5 结论
- 第10章 从未来的历史中学习
- 10.1 回顾OWASP大语言模型应用程序十大安全风险
- 10.2 案例研究
- 10.2.1 《独立日》:一场备受瞩目的安全灾难
- 10.2.2 《2001太空漫游》中的安全缺陷
- 10.3 结论
- 第11章 信任流程
- 11.1 DevSecOps的演进历程
- 11.1.1 机器学习运维
- 11.1.2 大模型运维
- 11.2 将安全性构建到大模型运维中
- 11.3 大模型开发过程中的安全性
- 11.3.1 保护你的持续集成和持续部署
- 11.3.2 大语言模型专用安全测试工具
- 11.3.3 管理你的供应链
- 11.4 运用防护机制保护应用程序
- 11.4.1 防护机制在大模型安全策略中的作用
- 11.4.2 开源与商业防护方案比较
- 11.4.3 自定义防护机制与成熟防护机制的融合应用
- 11.5 应用监控
- 11.5.1 记录每个提示和响应
- 11.5.2 日志和事件集中管理
- 11.5.3 用户与实体行为分析
- 11.6 建立你的AI红队
- 11.6.1 AI红队测试的优势
- 11.6.2 红队与渗透测试
- 11.6.3 工具和方法
- 11.7 持续改进
- 11.7.1 建立和调整防护机制
- 11.7.2 管理数据访问和质量
- 11.7.3 利用人类反馈强化学习实现对齐和安全
- 11.8 结论
- 第12章 负责任的人工智能安全实践框架
- 12.1 力量
- 12.1.1 图形处理器
- 12.1.2 云计算
- 12.1.3 开源
- 12.1.4 多模态
- 12.1.5 自主智能体
- 12.2 责任
- 12.2.1 RAISE框架
- 12.2.2 RAISE检查清单
- 12.3 结论
- 关于作者
- 关于封面
展开全部
出版方
机械工业出版社
机械工业出版社是全国优秀出版社,自1952年成立以来,坚持为科技、为教育服务,以向行业、向学校提供优质、权威的精神产品为宗旨,以“服务社会和人民群众需求,传播社会主义先进文化”为己任,产业结构不断完善,已由传统的图书出版向着图书、期刊、电子出版物、音像制品、电子商务一体化延伸,现已发展为多领域、多学科的大型综合性出版社,涉及机械、电工电子、汽车、计算机、经济管理、建筑、ELT、科普以及教材、教辅等领域。
