×
超值优惠券
¥50
100可用 有效期2天

全场图书通用(淘书团除外)

关闭
暂无评论
图文详情
  • ISBN:9787302578208
  • 装帧:70g胶版纸
  • 册数:暂无
  • 重量:暂无
  • 开本:其他
  • 页数:243
  • 出版时间:2021-08-01
  • 条形码:9787302578208 ; 978-7-302-57820-8

本书特色

强化学习是目前机器学习领域*热门的方向之一,本书经多年的实践教学经验的积累,形成了一套完整的教学体系。并结合流行的深度学习框架PyTorch,该书在理论和应用上都是较先进的。本书理论结合实践,深入浅出地讲解相关算法和实例。

内容简介

本书基于PyTorch框架,用通俗易懂的语言深入浅出地介绍了强化学习的基本原理,包括传统的强化学习基本方法和目前流行的深度强化学习方法。在对强化学习任务建模的基础上,首先介绍动态规划法、蒙特卡洛法、时序差分法等表格式强化学习方法,然后介绍在PyTorch框架下,DQN、DDPG、A3C等基于深度神经网络的大规模强化学习方法。全书以一个扫地机器人任务贯穿始终,并给出具有代表性的实例,增加对每个算法的理解。全书配有PPT和视频讲解,对相关算法和实例配有代码程序。 全书共分三部分: 和第二部分(~8章)为表格式强化学习部分,着重介绍深度强化学习概述、环境的配置、数学建模、动态规划法、蒙特卡洛法、时序差分法、n步时序差分法、规划和蒙特卡洛树搜索; 第三部分(第9~14章)为深度强化学习部分,着重介绍深度学习、PyTorch与神经网络、深度Q网络、策略梯度、基于确定性策略梯度的深度强化学习、AC框架的拓展。全书提供了大量的应用实例,每章章末均附有习题。 本书既适合作为高等院校计算机、软件工程、电子工程等相关专业高年级本科生、研究生的教材,又可为人工智能、机器学习等领域从事项目开发、科学研究的人员提供参考。

目录

**部分: 预备知识及环境安装

第1章深度强化学习概述


1.1引言


1.2深度学习


1.3强化学习


1.4深度强化学习


1.5小结


1.6习题


第2章环境的配置


2.1PyTorch简介


2.2PyTorch和TensorFlow


2.3强化学习的开发环境


2.3.1Anaconda环境搭建


2.3.2Anaconda环境管理


2.3.3PyTorch的安装


2.3.4Jupyter Notebook的安装


2.3.5Jupyter Notebook的使用


2.3.6Gym的安装


2.3.7Gym案例


2.4小结


2.5习题



第二部分: 表格式强化学习

第3章数学建模


3.1马尔可夫决策过程


3.2基于模型与无模型


3.3求解强化学习任务


3.3.1策略


3.3.2奖赏与回报


3.3.3值函数与贝尔曼方程


3.3.4*优策略与*优值函数


3.4探索与利用


3.5小结


3.6习题


第4章动态规划法


4.1策略迭代


4.1.1策略评估


4.1.2策略迭代


4.2值迭代


4.3广义策略迭代


4.4小结


4.5习题


第5章蒙特卡洛法


5.1蒙特卡洛法的基本概念


5.1.1MC的核心要素


5.1.2MC的特点


5.2蒙特卡洛预测


5.3蒙特卡洛评估


5.4蒙特卡洛控制


5.4.1基于探索始点的蒙特卡洛控制


5.4.2同策略蒙特卡洛控制


5.4.3异策略与重要性采样


5.4.4蒙特卡洛中的增量式计算


5.4.5异策略蒙特卡洛控制


5.5小结


5.6习题


第6章时序差分法


6.1时序差分预测


6.2时序差分控制


6.2.1Sarsa算法


6.2.2QLearning算法


6.2.3期望Sarsa算法


6.3*大化偏差与Double QLearning


6.3.1*大化偏差


6.3.2Double Learning


6.3.3Double QLearning


6.4DP、MC和TD算法的关系


6.4.1穷举式遍历与轨迹采样


6.4.2期望更新与采样更新


6.5小结


6.6习题


第7章n步时序差分法


7.1n步TD预测及资格迹


7.1.1n步TD预测


7.1.2前向TD(λ)算法


7.1.3后向TD(λ)算法


7.2n步TD控制及其资格迹实现


7.2.1同策略n步Sarsa算法


7.2.2Sarsa(λ)算法


7.2.3异策略n步Sarsa算法


7.2.4n步Tree Backup算法


7.3小结


7.4习题


第8章规划和蒙特卡洛树搜索


8.1模型、学习与规划


8.1.1模型


8.1.2学习


8.1.3规划


8.2DynaQ结构及其算法改进


8.2.1DynaQ架构


8.2.2优先遍历


8.2.3模拟模型的错误性


8.3决策时间规划


8.3.1启发式搜索


8.3.2预演算法


8.3.3蒙特卡洛树搜索


8.4小结


8.5习题



第三部分: 深度强化学习


第9章深度学习


9.1传统神经网络


9.1.1感知器神经元


9.1.2激活函数


9.2反向传播算法


9.2.1前向传播


9.2.2权重调整


9.2.3BP算法推导


9.3卷积神经网络


9.3.1卷积神经网络核心思想


9.3.2卷积神经网络结构


9.4小结


9.5习题


第10章PyTorch与神经网络


10.1PyTorch中的Tensor


10.1.1直接构造法


10.1.2间接转换法


10.1.3Tensor的变换


10.2自动梯度计算


10.2.1标量对标量的自动梯度计算


10.2.2向量对向量的自动梯度计算


10.2.3标量对向量(或矩阵)的自动梯度计算


10.3神经网络的模型搭建和参数优化


10.3.1模型的搭建


10.3.2激活函数


10.3.3常用的损失函数


10.3.4模型的保存和重载


10.4小结


10.5习题


第11章深度Q网络


11.1DQN算法


11.1.1核心思想


11.1.2训练算法


11.1.3实验结果与分析


11.2Double DQN算法


11.2.1核心思想


11.2.2实验结果与分析


11.3Prioritized DQN


11.3.1核心思想


11.3.2训练算法


11.3.3实验结果与分析


11.4Dueling DQN


11.4.1训练算法


11.4.2实验结果与分析


11.5小结


11.6习题


第12章策略梯度法


12.1随机策略梯度法


12.1.1梯度上升算法


12.1.2策略梯度法与值函数逼近法的比较


12.2策略优化方法


12.2.1情节式策略目标函数


12.2.2连续式策略目标函数


12.2.3策略梯度定理


12.3策略表达形式


12.3.1离散动作空间策略参数化


12.3.2连续动作空间策略参数化


12.4蒙特卡洛策略梯度法


12.4.1REINFORCE


12.4.2REINFORCE算法的实验结果与分析


12.4.3带基线的REINFORCE


12.4.4带基线的REINFORCE算法的实验结果与分析


12.5行动者评论家


12.6确定性策略梯度定理


12.7小结


12.8习题


第13章基于确定性策略梯度的深度强化学习


13.1DDPG算法


13.1.1算法背景


13.1.2核心思想


13.1.3DDPG算法


13.2DDPG算法的实验结果与分析


13.2.1DDPG算法网络结构与超参数设置


13.2.2实验环境


13.2.3实验结果与分析


13.3双延迟确定性策略梯度算法


13.3.1过高估计问题解决方案


13.3.2累计误差问题解决方案


13.3.3TD3算法


13.3.4实验结果与分析


13.4小结


13.5习题


第14章基于AC框架的深度强化学习


14.1行动者评论家框架


14.2A3C算法


14.2.1算法的核心思想


14.2.2异步1步Q学习算法


14.2.3A3C算法


14.2.4实验结果与分析


14.3A2C算法


14.3.1A2C算法


14.3.2实验结果与分析


14.4小结


14.5习题



参考文献

展开全部

作者简介

刘全,苏州大学教授,博士生导师。 吉林大学博士, 南京大学软件新技术国家重点实验室博士后。苏州市人工智能学会常务理事、秘书长。2006年开始从事强化学习 领域的教学和科研工作。主讲研究生、本科生《强化学习》及相关课程16次。主持“深度强化学习方法研究”、“部分感知强化学习理论及方法”、“基于tableau的逻辑强化学习研究”等国家、省部级项目10余项。目前主要研究方向为:深度强化学习。 2012年获江苏省教工委优秀共产党员称号。2011年、2012年入选江苏省“六大人才”、江苏省“333”人才培养计划。

预估到手价 ×

预估到手价是按参与促销活动、以最优惠的购买方案计算出的价格(不含优惠券部分),仅供参考,未必等同于实际到手价。

确定
快速
导航