万本电子书0元读

万本电子书0元读

顶部广告

Joy RL:强化学习实践教程电子书

【深度实践教程】继“蘑菇书”后全新造,助读者快速门强化学习代码实践。 【丰富内容覆盖】涵盖马尔可夫决策过程、动态规划、多种算法等核心知识。 【实践经验支撑】大部分内容基于三位作者实践经验编写。 【源框架助力】提供“JoyRL”源代码框架,适应业界应用研究风格。 【针对性强】适合有编程基础且想快速实践应用阶段的读者。 【知识提炼串联】提炼强化学习核心理论,串联知识。

售       价:¥

纸质售价:¥63.00购买纸书

0人正在读 | 0人评论 6.3

作       者:江季、王琦、杨毅远 著

出  版  社:人民邮电出版社有限公司

出版时间:2025-04-01

字       数:10.5万

所属分类: 科技 > 计算机/网络 > 程序设计

温馨提示:数字商品不支持退换货,不提供源文件,不支持导出打印

为你推荐

  • 读书简介
  • 目录
  • 累计评论(0条)
  • 读书简介
  • 目录
  • 累计评论(0条)
本书是继《Easy RL:强化学习教程》(俗称“蘑菇书”)之后,为强化学习的读者专门造的一本深实践的全新教程。全书大部分内容基于3位作者的实践经验,涵盖马尔可夫决策过程、动态规划、免模型预测、免模型控制、深度学习基础、DQN算法、DQN算法阶、策略梯度、Actor-Critic算法、DDPG与TD3算法、PPO算法等内容,旨在帮助读者快速门强化学习的代码实践,并辅以一套源代码框架“JoyRL”,便于读者适应业界应用研究风格的代码。与“蘑菇书”不同,本书对强化学习核心理论行提炼,并串联知识,重视强化学习代码实践的指导而不是对理论的详细讲解。 本书适合具有一定编程基础且希望快速实践应用阶段的读者阅读。<br/>【推荐语】<br/>【深度实践教程】继“蘑菇书”后全新造,助读者快速门强化学习代码实践。 【丰富内容覆盖】涵盖马尔可夫决策过程、动态规划、多种算法等核心知识。 【实践经验支撑】大部分内容基于三位作者实践经验编写。 【源框架助力】提供“JoyRL”源代码框架,适应业界应用研究风格。 【针对性强】适合有编程基础且想快速实践应用阶段的读者。 【知识提炼串联】提炼强化学习核心理论,串联知识。 【原创内容呈现】融针对策略梯度算法的两种不同推导版本等原创内容<br/>【作者】<br/>江季,网易高级算法工程师,硕士毕业于北京大学。Datawhale成员,《Easy RL:强化学习教程》《深度学习详解》作者。主要研究方向为强化学习、深度学习、大模型、机器人等。曾获国家奖学金、上海市优秀毕业生等,取得强化学习与游戏AI等相关专利多项。 王琦,上海交通大学人工智能重实验室博士研究生,硕士毕业于中国科学院大学。Datawhale成员,《Easy RL:强化学习教程》《深度学习详解》作者,AI TIME成员,Hugging Face社区志愿者。主要研究方向为视觉强化学习与世界模型。曾获“中国光谷·华为杯”第十九届中国研究生数学建模竞赛二等奖、中国大学生计算机设计大赛二等奖、亚太地区大学生数学建模竞赛(APMCM)二等奖等,发表NeurIPS、ICLR Oral论文多篇。 杨毅远,牛津大学计算机系博士研究生,硕士毕业于清华大学。Datawhale成员,《Easy RL:强化学习教程》《深度学习详解》作者。主要研究方向为时间序列、数据挖掘、智能传感系统、深度学习。曾获国家奖学金、北京市优秀毕业生、清华大学优秀硕士学位论文奖、全国大学生智能汽车竞赛总冠军等,发表SCI、EI论文多篇。<br/>
目录展开

内容提要

前言

资源与支持

第1章 绪论

1.1 为什么要学习强化学习?

1.2 强化学习的应用

1.3 强化学习方向概述

1.4 学习本书之前的一些准备

第2章 马尔可夫决策过程

2.1 马尔可夫决策过程

2.2 马尔可夫性质

2.3 回报

2.4 状态转移矩阵

2.5 本章小结

2.6 练习题

第3章 动态规划

3.1 动态规划的编程思想

3.2 状态价值函数和动作价值函数

3.3 贝尔曼方程

3.4 策略迭代算法

3.5 价值迭代算法

3.6 本章小结

3.7 练习题

第4章 免模型预测

4.1 有模型与免模型

4.2 预测与控制

4.3 蒙特卡罗方法

4.4 时序差分方法

4.5 时序差分方法和蒙特卡罗方法的差异

4.6 n步时序差分方法

4.7 本章小结

4.8 练习题

第5章 免模型控制

5.1 Q-learning 算法

5.2 Sarsa 算法

5.3 同策略算法与异策略算法

5.4 实战:Q-learning算法

5.5 实战:Sarsa算法

5.6 本章小结

5.7 练习题

第6章 深度学习基础

6.1 强化学习与深度学习的关系

6.2 线性回归模型

6.3 梯度下降

6.4 逻辑回归模型

6.5 全连接网络

6.6 高级的神经网络模型

6.7 本章小结

6.8 练习题

第7章 DQN算法

7.1 深度神经网络

7.2 经验回放

7.3 目标网络

7.4 实战:DQN算法

7.5 本章小结

7.6 练习题

第8章 DQN算法进阶

8.1 Double DQN算法

8.2 Dueling DQN 算法

8.3 Noisy DQN 算法

8.4 PER DQN算法

8.5 实战:Double DQN 算法

8.6 实战:Dueling DQN算法

8.7 实战:Noisy DQN算法

8.8 实战:PER DQN 算法

8.9 本章小结

8.10 练习题

第9章 策略梯度

9.1 基于价值的算法的缺点

9.2 策略梯度算法

9.3 REINFORCE算法

9.4 策略梯度推导进阶

9.5 策略函数的设计

9.6 本章小结

9.7 练习题

第10章 Actor-Critic算法

10.1 策略梯度算法的优缺点

10.2 Q Actor-Critic算法

10.3 A2C与A3C算法

10.4 广义优势估计

10.5 实战:A2C算法

10.6 本章小结

10.7 练习题

第11章 DDPG与TD3算法

11.1 DPG算法

11.2 DDPG算法

11.3 DDPG算法的优缺点

11.4 TD3算法

11.5 实战:DDPG算法

11.6 实战:TD3算法

11.7 本章小结

11.8 练习题

第12章 PPO算法

12.1 重要性采样

12.2 PPO算法

12.3 一个常见的误区

12.4 实战:PPO算法

12.5 本章小结

12.6 练习题

练习题答案

第2章

第3章

第4章

第5章

第6章

第7章

第8章

第9章

第10章

第11章

第12章

累计评论(0条) 0个书友正在讨论这本书 发表评论

发表评论

发表评论,分享你的想法吧!

买过这本书的人还买过

读了这本书的人还在读

回顶部