在生成式AI席卷全球、大语言模型(LLM)深度融企业核心业务的当下,安全漏洞引发的风险已从技术问题升级为关乎业务存续的战略挑战——从三星敏感数据泄露到加拿大航空聊天机器人诉讼,无数案例印证:缺少安全防护的LLM应用,即是企业的“隐形炸弹”。而本书正是全球LLM安全领域“奠基者”Steve Wilson为行业带来的“破局之作”。 作为“OWASP大语言模型应用十大安全风险”项目负责人,作者以20年AI与网络安全实战经验为基石,首次构建“RAISE框架”,从领域界定、知识库优化到零信任落地、AI红队演练,形成覆盖LLM全生命周期的安全防护闭环。书中不仅拆解提示词注、模型幻觉等核心风险,更前瞻性布局多模态、自主智能体等前沿场景防御,兼顾发者技术落地、管理者战略决策、合规者风险把控需求。 在同类书籍多聚焦单一风险的市场中,本书以“体系化、实战性、前瞻性”填补空白,既是企业规避数据泄露、法律纠纷的 “安全手册”,更是AI时代把握创新与风险平衡的“战略蓝图”,堪称所有LLM相关从业者的典籍。
售 价:¥
纸质售价:¥59.20购买纸书
6.8
温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印
为你推荐

O'Reilly Media, Inc.介绍
本书赞誉
译者序
前言
第1章 聊天机器人之殇
1.1 让我们谈谈Tay
1.2 Tay的光速堕落
1.3 为什么Tay会失控
1.4 这是一个棘手的问题
第2章 OWASP大语言模型应用十大安全风险
2.1 关于OWASP
2.2 大语言模型应用十大风险项目
2.2.1 项目执行
2.2.2 反响
2.2.3 成功的关键
2.3 本书与十大风险榜单
第3章 架构与信任边界
3.1 人工智能、神经网络和大语言模型:三者有何区别
3.2 Transformer革命:起源、影响及其与LLM的关系
3.2.1 Transformer的起源
3.2.2 Transformer架构对AI的影响
3.3 基于大语言模型的应用类型
3.4 大语言模型应用架构
3.4.1 信任边界
3.4.2 模型
3.4.3 用户交互
3.4.4 训练数据
3.4.5 访问实时外部数据源
3.4.6 访问内部服务
3.5 结论
第4章 提示词注入
4.1 提示词注入攻击案例
4.1.1 强势诱导
4.1.2 反向心理学
4.1.3 误导
4.1.4 通用和自动化对抗性提示
4.2 提示词注入的影响
4.3 直接与间接提示词注入
4.3.1 直接提示词注入
4.3.2 间接提示词注入
4.3.3 关键差异
4.4 缓解提示词注入风险
4.4.1 速率限制
4.4.2 基于规则的输入过滤
4.4.3 使用专用大语言模型进行过滤
4.4.4 添加提示结构
4.4.5 对抗性训练
4.4.6 悲观信任边界定义
4.5 结论
第5章 你的大语言模型是否知道得太多了
5.1 现实世界中的案例
5.1.1 Lee Luda案例
5.1.2 GitHub Copilot和OpenAI的Codex
5.2 知识获取方法
5.3 模型训练
5.3.1 基础模型训练
5.3.2 基础模型的安全考虑
5.3.3 模型微调
5.3.4 训练风险
5.4 检索增强生成
5.4.1 直接网络访问
5.4.2 访问数据库
5.5 从用户交互中学习
5.6 结论
第6章 语言模型会做电子羊的梦吗
6.1 为什么大语言模型会产生幻觉
6.2 幻觉的类型
6.3 实例分析
6.3.1 虚构的法律先例
6.3.2 航空公司聊天机器人诉讼案
6.3.3 无意的人格诋毁
6.3.4 开源包幻觉现象
6.4 谁该负责
6.5 缓解最佳实践
6.5.1 扩展领域特定知识
6.5.2 思维链推理:提高准确性的新路径
6.5.3 反馈循环:用户输入在降低风险中的作用
6.5.4 明确传达预期用途和局限性
6.5.5 用户教育:以知识赋能用户
6.6 结论
第7章 不要相信任何人
7.1 零信任解码
7.2 为什么要如此偏执
7.3 为大模型实施零信任架构
7.3.1 警惕过度授权
7.3.2 确保输出处理的安全性
7.4 构建输出过滤器
7.4.1 使用正则表达式查找个人信息
7.4.2 评估毒性
7.4.3 将过滤器链接到大模型
7.4.4 安全转义
7.5 结论
第8章 保护好你的钱包
8.1 拒绝服务攻击
8.1.1 基于流量的攻击
8.1.2 协议攻击
8.1.3 应用层攻击
8.1.4 史诗级拒绝服务攻击:Dyn事件
8.2 针对大模型的模型拒绝服务攻击
8.2.1 稀缺资源攻击
8.2.2 上下文窗口耗尽
8.2.3 不可预测的用户输入
8.3 拒绝钱包攻击
8.4 模型克隆
8.5 缓解策略
8.5.1 特定领域防护
8.5.2 输入验证和清理
8.5.3 严格的速率限制
8.5.4 资源使用上限
8.5.5 监控和告警
8.5.6 财务阈值和告警
8.6 结论
第9章 寻找最薄弱环节
9.1 供应链基础
9.1.1 软件供应链安全
9.1.2 Equifax数据泄露事件
9.1.3 SolarWinds黑客攻击
9.1.4 Log4Shell漏洞
9.2 理解大语言模型供应链
9.2.1 开源模型风险
9.2.2 训练数据污染
9.2.3 意外不安全的训练数据
9.2.4 不安全的插件
9.3 建立供应链追踪工件
9.3.1 软件物料清单的重要性
9.3.2 模型卡片
9.3.3 模型卡片与软件物料清单的比较
9.3.4 CycloneDX:SBOM标准
9.3.5 机器学习物料清单的兴起
9.3.6 构建机器学习物料清单示例
9.4 大语言模型供应链安全的未来
9.4.1 数字签名和水印技术
9.4.2 漏洞分类和数据库
9.5 结论
第10章 从未来的历史中学习
10.1 回顾OWASP大语言模型应用程序十大安全风险
10.2 案例研究
10.2.1 《独立日》:一场备受瞩目的安全灾难
10.2.2 《2001太空漫游》中的安全缺陷
10.3 结论
第11章 信任流程
11.1 DevSecOps的演进历程
11.1.1 机器学习运维
11.1.2 大模型运维
11.2 将安全性构建到大模型运维中
11.3 大模型开发过程中的安全性
11.3.1 保护你的持续集成和持续部署
11.3.2 大语言模型专用安全测试工具
11.3.3 管理你的供应链
11.4 运用防护机制保护应用程序
11.4.1 防护机制在大模型安全策略中的作用
11.4.2 开源与商业防护方案比较
11.4.3 自定义防护机制与成熟防护机制的融合应用
11.5 应用监控
11.5.1 记录每个提示和响应
11.5.2 日志和事件集中管理
11.5.3 用户与实体行为分析
11.6 建立你的AI红队
11.6.1 AI红队测试的优势
11.6.2 红队与渗透测试
11.6.3 工具和方法
11.7 持续改进
11.7.1 建立和调整防护机制
11.7.2 管理数据访问和质量
11.7.3 利用人类反馈强化学习实现对齐和安全
11.8 结论
第12章 负责任的人工智能安全实践框架
12.1 力量
12.1.1 图形处理器
12.1.2 云计算
12.1.3 开源
12.1.4 多模态
12.1.5 自主智能体
12.2 责任
12.2.1 RAISE框架
12.2.2 RAISE检查清单
12.3 结论
关于作者
关于封面
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜