万本电子书0元读

万本电子书0元读

顶部广告

零基础自学AI应用开发电子书

这是一本面向发者的AI应用发实战指南: - 扎根门技术人群:无须读者提前拥有大模型应用的发经验,甚至无须读者事先掌握Python和JavaScript语言,就可以从零始学习并掌握满足市场需求的大模型应用发技能。 - 满足常见业务需求:涵盖RAG应用发、工作流制作等常见业务场景,注重端到端交付,力求帮助发者体验真实发环境中的约束和挑战。 - 注重发实战:参考行业趋势与社区共识行技术选型,试图弥补从发环境到生产环境的鸿沟,不仅关注功能实现,而且会展示如何将其部署上线,对其行运维。

售       价:¥

纸质售价:¥62.20购买纸书

1人正在读 | 0人评论 6.5

作       者:李光毅 著

出  版  社:人民邮电出版社有限公司

出版时间:2025-12-01

字       数:31.1万

所属分类: 科技 > 计算机/网络 > 计算机教材

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(条)
  • 读书简介
  • 目录
  • 累计评论(条)
本书旨在用传统前后端发过程中发者熟悉的词汇与术语对AI应用发的专业知识行深浅出的讲解,使发者能够从0到1门AI应用发。本书不拘泥于讲解单一编程语言、单一模型和单一框架,而是尽可能完整地展现不同技术方案的优劣、技术选型时的考量和技术生态的全貌。书中涵盖当下多种热门类型AI应用的发,从OpenAI API调用到RAG发,从MCP服务器创建到智能体发。本书的内容编排循序渐,前半部分聚焦“门”,通过控制代码复杂度及详细的基础知识讲解,帮助读者快速熟悉AI应用发中的概念与常见模式;后半部分聚焦“阶”,将向量数据库、第三方云服务等技术组件引示例,并尝试通过构建完整的端到端应用将知识串起来。此外,本书不仅包含业务代码,还涉及AI应用的调试、监控、部署乃至最佳实践,力求带给读者可工作的上线代码。 本书非常适合想用AI提升产品竞争力的前后端发者、需要行快速概念验证的技术经理与创业者,以及希望将大模型现有系统的架构师与运维工程师阅读。读者无须拥有与AI应用发相关的经验,无须掌握Python或者Node.js编程语言,只要具有编程基础知识即可畅读本书。<br/>【推荐语】<br/>这是一本面向发者的AI应用发实战指南: - 扎根门技术人群:无须读者提前拥有大模型应用的发经验,甚至无须读者事先掌握Python和JavaScript语言,就可以从零始学习并掌握满足市场需求的大模型应用发技能。 - 满足常见业务需求:涵盖RAG应用发、工作流制作等常见业务场景,注重端到端交付,力求帮助发者体验真实发环境中的约束和挑战。 - 注重发实战:参考行业趋势与社区共识行技术选型,试图弥补从发环境到生产环境的鸿沟,不仅关注功能实现,而且会展示如何将其部署上线,对其行运维。 - 拥有技术广度:采用不同技术框架来发不同类型的大模型应用,力求展现大模型应用发领域的全貌及各类实践,为读者提供全面的实践视角,避免局限于单一技术栈。<br/>【作者】<br/>李光毅 曾就职于爱奇艺、百度、知乎等大型互联网公司,目前就职于Thoughtworks, 任高级咨询师。从事软件发工作超过10年,具备丰富的大型系统架构设计和团队管理经验。著有《高性能响应式Web发实战》,译有《编程原则》。现为播客“程序员新声”主播,其个人公众号为“技术圆桌”。<br/>
目录展开

版 权

内 容 提 要

前 言

第1章 理解模型

1.1 如何学习“魔法”

1.2 Teachable Machine

1.2.1 打造自己的模型

1.2.2 部署代码

1.3 线性模型

1.3.1 机器学习是如何工作的

1.3.2 代码实现

1.4 神经网络雏形

1.4.1 使用代码实现

1.4.2 为什么需要神经“网络”

第2章 环境配置与基础语法

2.1 配置Python环境

2.1.1 安装Python

2.1.2 配置虚拟环境

2.1.3 类库管理

2.2 Python快速入门

2.2.1 运行Python脚本

2.2.2 数据类型

2.2.3 缩进

2.2.4 函数的定义和使用

2.2.5 模块的使用

2.2.6 推导式

2.2.7 类型注解

2.3 配置Node.js环境

2.3.1 在macOS系统和Windows系统中安装Node.js

2.3.2 在Ubuntu系统中安装Node.js

2.4 Node.js快速入门

2.4.1 运行Node.js脚本

2.4.2 动态类型语言

2.4.3 package.json文件

2.4.4 Node.js模块系统

2.4.5 类库管理

2.4.6 异步编程

2.5 其他应知内容

2.5.1 cURL

2.5.2 YAML

第3章 制作一款音频转录工具

3.1 区分OpenAI、ChatGPT与大模型

3.2 集成OpenAI SDK

3.2.1 创建API密钥

3.2.2 使用API密钥

3.2.3 使用API密钥的注意事项

3.3 初试OpenAI SDK

3.3.1 发送请求

3.3.2 返回结果解析

3.3.3 计算token数量

3.4 通过REST风格的API调用OpenAI API

3.5 使用OpenAI SDK转录音频

3.5.1 读取音频文件

3.5.2 标记转录文字的时间戳

3.6 安装自己的Whisper模型

3.6.1 在本地安装Whisper模型

3.6.2 以命令行的方式运行Whisper

3.6.3 在代码中使用Whisper模型

第4章 AI助手开发

4.1 AI助手

4.1.1 创建AI助手

4.1.2 函数是如何工作的

4.1.3 调用AI助手

4.1.4 通过第三方获取城市气温

4.2 打造播客摘要生成助手

4.2.1 什么是播客摘要生成助手

4.2.2 创建播客摘要生成助手

4.2.3 响应OpenAI的流式返回

4.2.4 使用助手

4.3 创建HTTP服务器

4.3.1 引入Express.js

4.3.2 实现文件上传

4.3.3 完善路由

4.3.4 提升代码的健壮性

4.4 使用代码管理AI助手

4.4.1 引入GitHub Actions

4.4.2 编写工作流

4.4.3 编写部署脚本

4.4.4 看懂工作流

4.5 部署上线

4.5.1 创建守护进程

4.5.2 准备服务器

4.5.3 通过GitHub Actions部署上线

4.5.4 验证服务

第5章 使用Haystack开发AI应用

5.1 重新认识框架

5.1.1 为什么需要框架

5.1.2 何谓好的框架

5.1.3 也许你不需要框架

5.2 为什么选择Haystack

5.2.1 为什么不推荐LangChain

5.2.2 其他框架

5.2.3 迎接Haystack

5.3 初试Haystack

5.3.1 基本概念

5.3.2 初试组件与流水线

5.3.3 自定义组件

5.4 使用Haystack重构播客助手

5.4.1 使用Haystack进行重构

5.4.2 使用Gemini替代GPT模型

5.5 启用Haystack日志

日志管理

5.6 启用Haystack追踪

5.6.1 启用追踪

5.6.2 与OpenTelemetry集成

5.6.3 与Langfuse集成

第6章 RAG应用开发

6.1 初试RAG技术

6.1.1 使用Chroma实现语义化搜索

6.1.2 元数据过滤

6.1.3 与OpenAI配合

6.2 向量数据库原理

6.2.1 余弦相似度

6.2.2 文本嵌入

6.2.3 对Chroma进行嵌入配置

6.3 长文本处理

6.3.1 分割数据

6.3.2 固定大小的分块策略

6.3.3 基于文档结构的分块策略

6.3.4 递归式分块策略

6.4 使用Haystack实现流水线

6.4.1 索引流水线

6.4.2 查询流水线

6.4.3 简化流水线

6.5 拓展流水线

6.5.1 索引数据

6.5.2 优化数据检索

第7章 接入第三方AI服务

7.1 Hugging Face

7.1.1 注册Hugging Face

7.1.2 调用Hugging Face推理服务

7.1.3 与Haystack集成

7.1.4 Hugging Face的服务类型

7.2 Together AI

7.2.1 注册Together AI服务

7.2.2 访问推理服务

7.2.3 函数调用

7.3 Pinecone

7.3.1 注册Pinecone

7.3.2 使用Pinecone

7.4 Cohere

7.4.1 注册Cohere

7.4.2 调用Cohere推理服务

7.4.3 在Haystack中使用Cohere模型

7.5 Railway

7.5.1 需要解决的问题

7.5.2 使用Railway部署我们的服务

7.6 博客存储流水线

7.6.1 下载文章

7.6.2 组装流水线

7.6.3 部署服务

第8章 微调模型

8.1 在OpenAI中进行微调

8.1.1 准备训练数据

8.1.2 通过界面进行微调

8.2 使用Google AI进行微调

8.2.1 使用Vertex AI Studio进行微调

8.2.2 通过API进行微调

第9章 智能体开发入门

9.1 OpenAI智能体

9.1.1 第一个简单的智能体

9.1.2 任务转移

9.1.3 调用工具

9.1.4 借用智能体对播客摘要生成助手进行重构

9.2 自定义智能体处理流程

并行流程

9.3 利用Cohere的Command模型开发智能体

9.3.1 准备工作

9.3.2 编写智能体

9.4 护栏

9.4.1 输入护栏

9.4.2 输出护栏

9.4.3 第三方护栏

9.5 模型上下文协议

9.5.1 MCP架构

9.5.2 MCP工具

9.5.3 使用已有的MCP服务器

第10章 使用LangGraph构建智能体

10.1 一个简单的LangGraph应用

10.1.1 创建图对象

10.1.2 添加节点

10.1.3 stream_mode

10.2 在LangGraph中使用工具

10.2.1 简单的工具调用

10.2.2 复杂的工具调用

10.3 子图机制

10.3.1 简单子图

10.3.2 参数不兼容的情况

10.3.3 使用LangSmith对数据流进行追踪

10.4 任务转移

10.4.1 智能体间的任务转移

10.4.2 监督者模式

10.5 一个复杂的图

10.5.1 在向量数据库中搜索

10.5.2 在网络上搜索

10.5.3 连接图

10.6 添加前端界面

10.6.1 LangGraph服务

10.6.2 前端

10.7 实现人机交互

10.7.1 简单的人机交互

10.7.2 借助CopilotKit实现人机交互

累计评论(条) 个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部