这是一本面向发者的AI应用发实战指南: - 扎根门技术人群:无须读者提前拥有大模型应用的发经验,甚至无须读者事先掌握Python和JavaScript语言,就可以从零始学习并掌握满足市场需求的大模型应用发技能。 - 满足常见业务需求:涵盖RAG应用发、工作流制作等常见业务场景,注重端到端交付,力求帮助发者体验真实发环境中的约束和挑战。 - 注重发实战:参考行业趋势与社区共识行技术选型,试图弥补从发环境到生产环境的鸿沟,不仅关注功能实现,而且会展示如何将其部署上线,对其行运维。
售 价:¥
纸质售价:¥62.20购买纸书
6.5
温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印
为你推荐

版 权
内 容 提 要
前 言
第1章 理解模型
1.1 如何学习“魔法”
1.2 Teachable Machine
1.2.1 打造自己的模型
1.2.2 部署代码
1.3 线性模型
1.3.1 机器学习是如何工作的
1.3.2 代码实现
1.4 神经网络雏形
1.4.1 使用代码实现
1.4.2 为什么需要神经“网络”
第2章 环境配置与基础语法
2.1 配置Python环境
2.1.1 安装Python
2.1.2 配置虚拟环境
2.1.3 类库管理
2.2 Python快速入门
2.2.1 运行Python脚本
2.2.2 数据类型
2.2.3 缩进
2.2.4 函数的定义和使用
2.2.5 模块的使用
2.2.6 推导式
2.2.7 类型注解
2.3 配置Node.js环境
2.3.1 在macOS系统和Windows系统中安装Node.js
2.3.2 在Ubuntu系统中安装Node.js
2.4 Node.js快速入门
2.4.1 运行Node.js脚本
2.4.2 动态类型语言
2.4.3 package.json文件
2.4.4 Node.js模块系统
2.4.5 类库管理
2.4.6 异步编程
2.5 其他应知内容
2.5.1 cURL
2.5.2 YAML
第3章 制作一款音频转录工具
3.1 区分OpenAI、ChatGPT与大模型
3.2 集成OpenAI SDK
3.2.1 创建API密钥
3.2.2 使用API密钥
3.2.3 使用API密钥的注意事项
3.3 初试OpenAI SDK
3.3.1 发送请求
3.3.2 返回结果解析
3.3.3 计算token数量
3.4 通过REST风格的API调用OpenAI API
3.5 使用OpenAI SDK转录音频
3.5.1 读取音频文件
3.5.2 标记转录文字的时间戳
3.6 安装自己的Whisper模型
3.6.1 在本地安装Whisper模型
3.6.2 以命令行的方式运行Whisper
3.6.3 在代码中使用Whisper模型
第4章 AI助手开发
4.1 AI助手
4.1.1 创建AI助手
4.1.2 函数是如何工作的
4.1.3 调用AI助手
4.1.4 通过第三方获取城市气温
4.2 打造播客摘要生成助手
4.2.1 什么是播客摘要生成助手
4.2.2 创建播客摘要生成助手
4.2.3 响应OpenAI的流式返回
4.2.4 使用助手
4.3 创建HTTP服务器
4.3.1 引入Express.js
4.3.2 实现文件上传
4.3.3 完善路由
4.3.4 提升代码的健壮性
4.4 使用代码管理AI助手
4.4.1 引入GitHub Actions
4.4.2 编写工作流
4.4.3 编写部署脚本
4.4.4 看懂工作流
4.5 部署上线
4.5.1 创建守护进程
4.5.2 准备服务器
4.5.3 通过GitHub Actions部署上线
4.5.4 验证服务
第5章 使用Haystack开发AI应用
5.1 重新认识框架
5.1.1 为什么需要框架
5.1.2 何谓好的框架
5.1.3 也许你不需要框架
5.2 为什么选择Haystack
5.2.1 为什么不推荐LangChain
5.2.2 其他框架
5.2.3 迎接Haystack
5.3 初试Haystack
5.3.1 基本概念
5.3.2 初试组件与流水线
5.3.3 自定义组件
5.4 使用Haystack重构播客助手
5.4.1 使用Haystack进行重构
5.4.2 使用Gemini替代GPT模型
5.5 启用Haystack日志
日志管理
5.6 启用Haystack追踪
5.6.1 启用追踪
5.6.2 与OpenTelemetry集成
5.6.3 与Langfuse集成
第6章 RAG应用开发
6.1 初试RAG技术
6.1.1 使用Chroma实现语义化搜索
6.1.2 元数据过滤
6.1.3 与OpenAI配合
6.2 向量数据库原理
6.2.1 余弦相似度
6.2.2 文本嵌入
6.2.3 对Chroma进行嵌入配置
6.3 长文本处理
6.3.1 分割数据
6.3.2 固定大小的分块策略
6.3.3 基于文档结构的分块策略
6.3.4 递归式分块策略
6.4 使用Haystack实现流水线
6.4.1 索引流水线
6.4.2 查询流水线
6.4.3 简化流水线
6.5 拓展流水线
6.5.1 索引数据
6.5.2 优化数据检索
第7章 接入第三方AI服务
7.1 Hugging Face
7.1.1 注册Hugging Face
7.1.2 调用Hugging Face推理服务
7.1.3 与Haystack集成
7.1.4 Hugging Face的服务类型
7.2 Together AI
7.2.1 注册Together AI服务
7.2.2 访问推理服务
7.2.3 函数调用
7.3 Pinecone
7.3.1 注册Pinecone
7.3.2 使用Pinecone
7.4 Cohere
7.4.1 注册Cohere
7.4.2 调用Cohere推理服务
7.4.3 在Haystack中使用Cohere模型
7.5 Railway
7.5.1 需要解决的问题
7.5.2 使用Railway部署我们的服务
7.6 博客存储流水线
7.6.1 下载文章
7.6.2 组装流水线
7.6.3 部署服务
第8章 微调模型
8.1 在OpenAI中进行微调
8.1.1 准备训练数据
8.1.2 通过界面进行微调
8.2 使用Google AI进行微调
8.2.1 使用Vertex AI Studio进行微调
8.2.2 通过API进行微调
第9章 智能体开发入门
9.1 OpenAI智能体
9.1.1 第一个简单的智能体
9.1.2 任务转移
9.1.3 调用工具
9.1.4 借用智能体对播客摘要生成助手进行重构
9.2 自定义智能体处理流程
并行流程
9.3 利用Cohere的Command模型开发智能体
9.3.1 准备工作
9.3.2 编写智能体
9.4 护栏
9.4.1 输入护栏
9.4.2 输出护栏
9.4.3 第三方护栏
9.5 模型上下文协议
9.5.1 MCP架构
9.5.2 MCP工具
9.5.3 使用已有的MCP服务器
第10章 使用LangGraph构建智能体
10.1 一个简单的LangGraph应用
10.1.1 创建图对象
10.1.2 添加节点
10.1.3 stream_mode
10.2 在LangGraph中使用工具
10.2.1 简单的工具调用
10.2.2 复杂的工具调用
10.3 子图机制
10.3.1 简单子图
10.3.2 参数不兼容的情况
10.3.3 使用LangSmith对数据流进行追踪
10.4 任务转移
10.4.1 智能体间的任务转移
10.4.2 监督者模式
10.5 一个复杂的图
10.5.1 在向量数据库中搜索
10.5.2 在网络上搜索
10.5.3 连接图
10.6 添加前端界面
10.6.1 LangGraph服务
10.6.2 前端
10.7 实现人机交互
10.7.1 简单的人机交互
10.7.2 借助CopilotKit实现人机交互
买过这本书的人还买过
读了这本书的人还在读
同类图书排行榜