«上一篇 下一篇»
  计算机工程  2022, Vol. 48 Issue (2): 106-112  DOI: 10.19678/j.issn.1000-3428.0060193
0

引用本文  

周瑞朋, 秦进. 基于最佳子策略记忆的强化探索策略[J]. 计算机工程, 2022, 48(2), 106-112. DOI: 10.19678/j.issn.1000-3428.0060193.
ZHOU Ruipeng, QIN Jin. Reinforcement Exploration Strategy Based on Best Sub-Strategy Memory[J]. Computer Engineering, 2022, 48(2), 106-112. DOI: 10.19678/j.issn.1000-3428.0060193.

基金项目

国家自然科学基金(61562009);贵州省科学技术基金(黔科合支撑[2020]3Y004号)。

通信作者

秦进(通信作者),副教授、博士

作者简介

周瑞朋(1995-),男,硕士研究生,主研方向为机器学习、强化学习

文章历史

收稿日期:2020-12-04
修回日期:2021-01-28
基于最佳子策略记忆的强化探索策略
周瑞朋 , 秦进     
贵州大学 计算机科学与技术学院, 贵阳 550025
摘要:现有强化学习探索策略存在过度探索的问题,导致智能体收敛速度减慢。通过设计一个基于奖励排序的存储表(M表)和ε-greedy改进算法,提出基于最佳子策略记忆的强化探索策略。将奖励值大于零的样本以子策略的形式存入M表,使其基于奖励降序排序,在整个训练过程中,使用与表中相似且奖励值较高的样本以子策略形式替换表中子策略,从而在表中形成一个能有效产生目前最优奖励的动作集合,提高探索的针对性,而不是随机探索。同时,在ε-greedy算法基础上按一定的概率分配,使智能体通过使用M表探索得到MEG探索策略。基于此,智能体在一定概率下将当前状态与M表中子策略匹配,若相似,则将表中与其相似的子策略对应动作反馈给智能体,智能体执行该动作。实验结果表明,该策略能够有效缓解过度探索现象,与DQN系列算法和非DQN系列的A2C算法相比,其在Playing Atari 2600游戏的控制问题中获得了更高的平均奖励值。
关键词强化学习    过度探索    MEG探索    相似度    最佳子策略    
Reinforcement Exploration Strategy Based on Best Sub-Strategy Memory
ZHOU Ruipeng , QIN Jin     
College of Computer Science and Technology, Guizhou University, Guiyang 550025, China
Abstract: Existing reinforcement learning exploration strategies are limited by over exploration, resulting in the slow convergence of agents.To address this issue, in this study, a storage table(M table) is designed and the ε-greedy algorithm is improved upon to propose a reinforcement exploration strategy based on best sub-strategy memory.The samples with reward values greater than zero are stored in the M table in the form of sub-strategies, which are then sorted in descending order based on the reward.During the training process, samples with similar and higher reward values are used to replace the sub-strategies in the table, to form an action set that can effectively produce the current optimal reward in the table, while making the exploration process more relevant rather than random.Additionally, based on the ε-greedy algorithm, the sub-strategies are distributed according to a certain probability, such that the agent can obtain the M-Epsilon-Greedy(MEG) exploration strategy by using the M table.Under this strategy, the agent matches the current state with the sub-strategy in the M table for a certain probability, whereby in the case of a match, the corresponding action of the sub-strategy in the table is fed back to the agent, and the agent executes the action.Experimental results indicate that this strategy can effectively alleviate the phenomenon of over exploration.Compared with the DQN series algorithm and non-DQN series A2C algorithm, a higher reward value is obtained in the control problem of Playing Atari 2600 game using the proposed strategy.
Key words: reinforcement learning    excessive exploration    M-Epsilon-Greedy(MEG) exploration    similarity    best sub-strategy    

开放科学(资源服务)标志码(OSID):

0 概述

强化学习中存在探索与利用困境,一个强化学习智能体必须尝试一些之前没有尝试过的操作,发现其中某些能有效产生奖励的动作,同时智能体也必须充分利用能有效产生奖励的经验[1]。强化学习问题中的ε-greedy策略由于简单而被广泛使用,但在这种探索策略下智能体过度依赖于随机算子,探索完全随机,没有针对性。目前已有大量关于强化学习中有效探索的研究,如2002年KEARNS等[2]提出的多项式时间内的近最优强化学习,2010年JAKSCH等[3]提出的强化学习的近最优后悔边界。多数探索方法都依赖于随机干扰智能体的策略,如1999年SUTTON等[4]提出的ε-greedy,WILLIAMS[5]提出熵正则化以诱导新动作,但这些方法都限制于较小的状态动作空间或者线性函数近似,不适用于神经网络这样的复杂函数近似[6]。2016年BELLEMARE等[7]提出基于计数的探索,2017年OSTROVSKI等[8]提出状态空间的密度建模,这些方法被尝试用来解决高维度和连续动作上的马尔科夫决策问题,但不足是它们都依赖于较为复杂的额外结构,且探索不具备针对性。2017年PATHAK等[9]提出的自监督好奇心模块,通过建立一个环境预测模型,对于模型预测不佳的,给予智能体一定的奖励(好奇心),这种方法在某些控制问题上有一定的效果,但是在部分控制问题上会导致智能体陷入过度探索。另一种方法是通过向算法中加入额外的关联噪声来增加自然探索,如2017年MATTHIAS等[10]提出使用参数空间噪声探索,2018年FORTUNATO等[11]提出噪声网络探索。这些算法通过加入噪声干扰神经网络计算动作的Q值,从而影响智能体在当前状态下采取的动作,这些动作可能是之前没有尝试过的动作。2020年ZHANG等[12]提出与任务无关的探索策略,通过探索MDP,不依赖于奖励函数去收集轨迹。这些算法一定程度上提高了算法效率,但是过度依赖随机算子,干扰神经网络计算动作的Q值,其探索动作没有针对性,在探索期间,如果智能体访问到某些对于获取奖励没有帮助的状态,在这些策略下,它可能会继续深度探索这些状态及其后继状态,产生过度探索的问题。

在有限马尔科夫决策过程中,存在一个唯一的、确定的最优策略$ {\pi }^{\mathrm{*}} $,其状态动作值函数$ {Q}^{\mathrm{*}} $对于所有状态动作对都是最优的[13],这个最优值函数满足贝尔曼最优性方程集。受此启发,笔者认为最优策略由若干局部最优策略组成。在强化学习中,一个学习任务被建模成马尔科夫决策[14]过程,那么其局部最优策略空间不可能无限大,则设计一个基于奖励排序的M表,通过训练不断迭代最后得到一个最优策略的最优子策略空间。

本文设计基于奖励排序的M表并改进$ \epsilon $-greedy算法。智能体在一定的概率下对当前样本与M表中子策略进行匹配,若找到一个相似子策略,则选择该策略所采用的动作,通过这种方式,使智能体得到的动作具有针对性,同时提高获得的平均奖励。

1 基础理论 1.1 深度强化学习

强化学习是用于解决序贯决策的机器学习分支领域,其关键之一是智能体要学习好的行为,这意味着需要增量式地调整行为或获得新的技巧。另一个关键是强化学习通过不断试错获取经验进而学习[15]。强化学习问题通常被建模成马尔科夫决策过程,在每个时间步$ t $,智能体所处状态为$ {s}_{t} $,策略$ \pi \left({a}_{t}\right|{s}_{t}) $表示智能体在状态$ {s}_{t} $下执行动作$ {a}_{t} $的概率,在此概率下执行动作$ {a}_{t} $,获得一个标量奖励$ {r}_{t} $,并转换到$ {s}_{t+1} $,将这个过程用五元组$ ({s}_{t}, {a}_{t}, {s}_{t-1}, {r}_{t-1}, \mathrm{d}\mathrm{o}\mathrm{n}\mathrm{e}) $表示,其中done是个布尔值,用来指示一个episode是否结束。在回合型问题中,其回报是带折扣的累积奖励,折扣因子$ \gamma \in \left(\mathrm{0, 1}\right] $,是对未来预估奖励的惩罚项:

${R_t} = \sum\limits_{k = 0}^\infty {{\gamma ^k}} {r_{t + k}} $ (1)

智能体的目标就是最大化每个状态的长期回报期望。通常使用值函数来预测未来回报的期望以衡量一个状态或者状态动作对的好坏。状态值函数定义为:

$ {v}_{\pi }\left(s\right)=\mathrm{ }\left[{R}_{t}\right|{s}_{t}=s] $ (2)

动作值函数定义为:

$ {q}_{\pi }(s, a)=\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\left[{R}_{t}\right|{s}_{t}=s, {a}_{t}=a] $ (3)

一个最优状态值被定义为:

$ {v}^{\mathrm{*}}\left(s\right)=\underset{\pi }{\mathrm{m}\mathrm{a}\mathrm{x}}{v}_{\pi }\left(s\right)=\underset{a}{\mathrm{m}\mathrm{a}\mathrm{x}}{q}_{{\pi }^{\mathrm{*}}}(s, a) $ (4)

深度强化学习就是使用深度神经网络来近似强化学习中的状态值函数(或动作值函数)。深度强化学习被广泛应用于视频游戏[16]、机器人[17]、自然语言处理[18]、计算机视觉[19]等领域。2013年,DeepMind团队将深度神经网络引入强化学习用来近似值函数。深度强化学习设置了经验缓冲,将智能体与环境进行交互产生的经验存入该缓冲,通常又称这些经验为样本。

1.2 ε-greedy探索策略

ε-greedy策略是强化学习中最常用的探索策略。在该策略下,智能体有ε的概率会选择一个随机动作,$ 1-\epsilon $的概率选择当前动作Q值最大的动作,定义为:

$ \pi \left(a\right|{s}_{t})\doteq \left\{\begin{array}{l}1-\epsilon +\frac{\epsilon }{\left|A\right({s}_{t}\left)\mathrm{ }\right|}, a={A}^{\mathrm{*}}\\ \frac{\epsilon }{\left|A\right({s}_{t}\left)\mathrm{ }\right|}, a\ne {A}^{\mathrm{*}}\end{array}\right. $ (5)

其中:$ {A}^{\mathrm{*}} $表示最优动作;$ \left|A\right({s}_{t}\left)\mathrm{ }\right| $是当前状态$ {s}_{t} $下所有可选动作的集合。

2 基于最佳子策略记忆的强化探索

定义一个强化学习问题的状态集为:

$ S\doteq \left\{{S}^{\left(1\right)}, {S}^{\left(2\right)}, \cdots , {S}^{\left(m\right)}\right\} $ (6)

$ {\pi }^{\mathrm{*}} $表示全局最优策略,由有限马尔科夫决策过程的性质可知其由若干优先的局部最优子策略组成。本文使用$ ({s}_{t}, {a}_{t}) $表示子策略,用$ \widehat{\mathit{\pi }} $来近似$ {\pi }^{\mathrm{*}} $$ \widehat{\mathit{\pi }} $是一个向量。定义为:

$ \widehat{\mathit{\pi }}\doteq \left(\widehat{\pi }\right({S}^{\left(1\right)}), \widehat{\pi }({S}^{\left(2\right)}), \cdots , \widehat{\pi }({S}^{\left(m\right)}\left)\right) $ (7)

其中:$ \widehat{\pi }\left({S}^{\left(k\right)}\right) $表示一个最佳子策略,其值为一个动作,记为$ \widehat{\pi }\left({S}^{\left(k\right)}\right)=a $,表示在状态$ {S}^{\left(k\right)} $下智能体目前学习到的最佳动作为$ a $

基于最佳子策略记忆的强化探索,就是将智能体目前学到的最佳子策略存入一个存储表中(记为M表),当智能体访问M表时,将当前状态与M表中子策略状态进行相似度计算。若构成相似,则返回子策略中的动作。

2.1 基于奖励排序的M表

解决过度探索,一个可行的方法是增加探索的针对性。在智能体与环境交互过程中,会产生大量的样本并将样本保存到经验缓冲中。本文将较好的经验作为子策略独立存放,在探索时,以一定的概率计算智能体当前状态与这些子策略的相似度,类似基于实例的学习,本文选择最相似的子策略中的动作并执行。通过相似计算增加智能体产生新的奖励值较高的样本的概率,这样的探索能够促进智能体获得奖励值大的样本,使探索具有针对性。如果将所有的子策略保存下来,那么空间开销和计算代价将会很大。本文使用结构性相似度算法计算子策略的相似度,将相似的子策略中奖励值最高的子策略存入M表中,视为智能体目前学到的最佳子策略。M表独立于经验缓冲和智能体对经验的采样过程。M表使用二元组$ ({s}_{t}, {a}_{t}) $来存储一个最佳子策略,并为每个子策略附加一个奖励信息$ {r}_{t} $,表示该子策略可获得的奖励,并使表中所有子策略基于奖励降序排序。M表上的操作如图1所示。

Download:
图 1  M表上的操作 Fig. 1  Operation on table M

图1的左边部分所示,智能体与环境交互产生一个新样本之后,如果样本的奖励值大于零且M表为空,则将该样本中的子策略存入M表。若M表不为空,则依次判断该奖励与倒序的M表中子策略的奖励值。若该奖励大于某个子策略$ ({s}_{T-k}, {a}_{T-k}) $的奖励且小于该子策略的前继子策略$ ({s}_{T-k-1}, {a}_{T-k-1}) $的奖励,则进一步计算该样本与$ ({s}_{T-k}, {a}_{T-k}) $中状态的相似度,若小于阈值$ \theta $,则认为不相似并扫描$ ({s}_{T-k+1}, {a}_{T-k+1}) $前面的子策略中是否有与其相似的子策略,如果有,则跳过该策略,如果没有相似度且大于阈值$ \theta $,则认为相似,并使用样本中的子策略替换掉M表中对应的子策略$ ({s}_{T-k}, {a}_{T-k}) $,可结合图1中3个绿色文本框和上下子策略查看(彩色效果见《计算机工程》官网HTML版)。若样本中的子策略$ ({s}_{t}, {a}_{t}) $奖励值大于$ ({s}_{T-n+1}, {a}_{T-n+1}) $的奖励且小于$ ({s}_{T-n}, {a}_{T-n}) $的奖励,M表中没有与其重复的子策略(若有重复,则跳过),且该子策略与$ ({s}_{T-n+1}, {a}_{T-n+1}) $不相似,则将其插入$ ({s}_{T-n}, {a}_{T-n}) $$ ({s}_{T-n+1}, {a}_{T-n+1}) $之间,可结合图1中红色文本框以及上下子策略查看(彩色效果见《计算机工程》官网HTML版)。

如果该样本的奖励大于零但不大于M表最后一个子策略的奖励,则检查M表前面是否有与其相似的子策略,若有,则跳过该样本,反之,则将该样本中的子策略添加到M表的末尾。

基于最佳子策略记忆的强化探索设计智能体在探索时,将有一定的概率会通过M表进行探索。在这种情况下,智能体会对M表做相似查询,通过将当前状态与M表中子策略的状态正序依次计算相似度。若与其中某个子策略的相似度大于$ \theta $,则将该子策略中的动作反馈给智能体。如图1右半部分所示,若$ {s}_{t} $$ {s}_{1} $相似,则将该动作反馈给智能体,若不相似则继续往下找,若整个M表都没找到,智能体将选择神经网络计算该状态下最大Q值的动作。

2.2 MEG探索

在通常情况下,强化学习算法采用ε-greedy探索。本文在ε-greedy算法的基础上加以改进得到M-Epsilon-Greedy(MEG)探索。

$ {a}_{m} $为从M中选出的最佳动作,$ {a}_{Q} $为利用神经网络选出的动作,$ {a}_{m} $$ {a}_{Q} $不同。A为智能体所有可选动作。智能体从M表中选出的一个动作为$ {a}_{m} $($ m=\underset{i}{\mathrm{a}\mathrm{r}\mathrm{g}\mathrm{m}\mathrm{i}\mathrm{n}}\left\{\mathrm{s}\mathrm{i}\mathrm{m}\right(s, {s}_{i}) > \theta \} $),sim函数用来求智能体当前状态与M中子策略状态的相似度,从M表头到表尾,如果小于$ \theta $,则取对应子策略中的动作。由于前期神经网络不稳定,为了使智能体在前期保留探索能力的同时增强探索的针对性,本文将智能体利用神经网络的概率分出一部分使用M表探索,这样智能体就既保留了探索能力,又能够有效结合目前已学最佳策略进行探索。

由此,定义MEG探索表示为:

$ \pi \left(a\right|{s}_{t})\doteq \left\{\begin{array}{l}\frac{\epsilon }{\left|A\right|}, a\ne {a}_{m}\ne {a}_{Q}\\ \frac{\epsilon \rho (1-\epsilon )}{3}\frac{\left|A\right(\mathrm{M}\left)\mathrm{ }\right|-1}{\left|A\right(\mathrm{M}\left)\mathrm{ }\right|}-\frac{\epsilon }{\left|A\right|}, a={a}_{m}\\ \frac{\epsilon \rho (1-\epsilon )}{3\left|A\right(\mathrm{M}\left)\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\right|}+\frac{3-\epsilon \rho }{3}(1-\epsilon ), a={a}_{Q}\end{array}\right. $

在状态$ {s}_{t} $下,智能体以$ \epsilon $的概率选择一个随机动作$ a $,以$ (1-\epsilon )\frac{\epsilon }{3} $的概率选择对M表进行相似查询,$ \rho $为在M表中找到相似子策略的概率,如果找到相似子策略,则选择子策略中的动作$ {a}_{m} $,反之,则选择神经网络计算出最大Q值的动作。在$ (1-\epsilon )\left(1-\frac{\epsilon }{3}\right) $的概率下选择利用神经网络计算的Q值最大的动作$ {a}_{Q} $,其中$ \left|A\right(\mathrm{M}\left)\mathrm{ }\right| $为M表中所有动作的集合,$ \left|A\right| $为智能体在该环境下的所有动作集合,探索概率设置将在下文3.1节中详细介绍。

MEG探索示意图如图2所示。

Download:
图 2  MEG探索示意图 Fig. 2  Schematic diagram of MEG exploration
2.3 训练

基于最佳子策略记忆的强化探索方法具有广泛适用性,为了验证其性能,本文使用FQF算法[20](分布强化学习的全参数分位数函数)作为实例。

将基于奖励的有序M表和MEG探索策略与FQF相结合,得到M-FQF。定义经验缓冲的容量为N,每一次训练所用的数据量为一个batch_size。一个强化学习问题从开始到结束为一个episode。

为近似分位点函数网络,为分数提议网络设置H个可调分位数($ {\tau }_{0}=0 $$ {\tau }_{H}=1 $)。分数提议网络输出对应的分位数并将这些分位数传入分位点函数网络。分位点函数网络将每个状态动作对映射到对应分位数的概率,使用1-Wasseretein计算近似分位点函数与真实分位点函数分布之间的距离,为了最小化1-Wasserstein误差,从固定的可调分位数$ \tau $去寻找对应的最优分位数值。分别使用RMSprop算法和Adam算法优化分数提议网络和分位点函数网络。将分布贝尔曼更新和分位数回归相结合训练分位点函数网络,最小化Huber分位数回归损失(同分布强化学习的隐分位数网络IQN[21]和分位数回归的分布强化学习QR-DQN[22],将阈值设为$ k $)。达到训练的最低步数后,对样本采样,训练网络。最后更新分数提议网络和分位点函数网络。

3 实验与分析 3.1 实验设计

为验证改进策略的有效性,选择Playing Atari 2600游戏中的经典控制问题BankHeist、RoadRunner、Freeway、BeamRider作为实验对象,将本文改进算法与DQN系列算法以及非DQN系列的A2C算法[23]进行比较。

软件环境:Arcade Leaning Environment,CUDA 10.0,Pytorch 1.5,Python3.8。硬件环境:GPU型号:Tesla P40 以及 NVIDIA GeForce RTX 2080 Ti。为公平比较,对BankHeist、RoadRunner、Freeway、BeamRider使用同状态对抗DQN的鲁棒深度强化学习[24](SA-DQN)的参数,训练了500万个step。图中横坐标单位为250 000 step。对于Playing Atari 2600视频游戏设置250 000 step视频游戏帧用于探索。本文使用IQN、FQF、QR-DQN、IQN-RAINBOW[25]这4种算法作为baseline。经验回放的大小设置为1 000 000,一个训练$ \mathrm{b}\mathrm{a}\mathrm{t}\mathrm{c}\mathrm{h}\_\mathrm{s}\mathrm{i}\mathrm{z}\mathrm{e} $设置为32。折扣因子$ \gamma $初始化为0.99。由于训练之初神经网络不稳定,如果利用神经网络这种不稳定性去探索显得没有针对性,因此从中分出$ \frac{\epsilon }{3} $的概率,使智能体根据M表来探索。这一方面不影响智能体以$ \epsilon $的概率探索动作空间,另一方面也加强了智能体探索的针对性。使用M表探索的概率随着智能体探索概率$ \epsilon $线性衰减而逐渐衰减到0.01。初始化$ \alpha $=1e-5,$ \theta =0.989 $。探索策略中的探索概率初始化为1,随着训练逐渐减少到0.01。目标网络的更新步长C为10 000。对环境Arcade Learning Environment所反馈的奖励做归一化处理后将样本存入经验缓冲。在与A2C算法的比较中,选择Berzerk、BeamRider这2种控制问题作为实验对象。利用openAI的开源baselines项目中的A2C算法作为baseline,时间步与M-FQF同为500万,其他参数为默认参数,epsilon为1e-5,alpha与gamma皆为0.99,学习率7e-4,智能体的评估间隔设置为250 000 step。

根据FQF的实验描述,设计以下实验过程:智能体每到达一个状态$ s $就会将状态输入基础DQN经典网络。该网络将状态$ s $的特征传递给分数提议网络,将输出的所有动作输入到分位点函数网络。智能体根据MEG探索策略选择动作,以$ \epsilon $的概率会执行一个随机动作,$ (1-\epsilon )\frac{\epsilon }{3} $的概率智能体从M表中进行相似查询选择与当前状态相似的子策略中的动作。以$ (1-\epsilon )\left(1-\frac{\epsilon }{3}\right) $的概率选择分数提议网络预测的最大状态动作值执行动作$ a $,环境反馈奖励和下一个状态后,将产生的样本存入经验回放,再进行采样、训练。

3.2 实验结果与分析

深度强化学习中算法效果主要由奖励值决定。网络在设定的迭代次数结束后,平均奖励越大说明该算法的性能越好。M-FQF在实验环境Arcade Learning Environment中4种控制问题上的实验结果如图3~图7所示(彩色效果见《计算机工程》官网HTML版)。

Download:
图 3  5种算法在BankHeist上的平均奖励 Fig. 3  Average reward of five algorithms on BankHeist
Download:
图 4  5种算法在Freeway上的平均奖励 Fig. 4  Average reward of five algorithms on Freeway
Download:
图 5  5种算法在RoadRunner上的平均奖励 Fig. 5  Average reward of five algorithms on RoadRunner
Download:
图 6  5种算法在BeamRider上的平均奖励 Fig. 6  Average reward of five algorithms on BeamRider
Download:
图 7  5种算法在Berzerk上的平均奖励 Fig. 7  Average reward of five algorithms on Berzerk

通过实验对比发现,结合了基于奖励有序的M表探索策略的FQF算法(M-FQF)相较于FQF、IQN、QR-DQN、IQN-RAINBOW算法,在多数控制问题上取得了更高的平均奖励且具有更好的稳定性。

图3中约1.25×2 500 000 step处5种算法突然性能变化较大,这可能是刚好更新了目标网络,这时候更能体现算法本身的稳健性。IQN-RAINBOW在经过这个点后就趋于平稳,获得的平均奖励是5种算法中最低的。M-FQF和FQF趋势有点相似,但是从图中可以看出M-FQF明显要优于FQF以及其他3种算法。图4中游戏开局5种算法的起点都不在原点,这是因为Freeway游戏开局距离游戏得分处有一小段距离。约在2.5×250 000 step到4×250 000 step之间应该是智能体学习的一个关键阶段。因为在这里5种算法出现了不同程度的波峰或者波谷,只有QR-DQN形成了一个波谷。相比其他4种算法,QR-DQN似乎受影响更大。可以看出这个问题上最优的算法是IQN-RAINBOW,其次是M-FQF。此外,5种算法在Freeway上都有较好的收敛性。

在RoadRunner问题上,从图5看出M-FQF和IQN-RAINBOW都有较好的收敛性。IQN-RAINBOW收敛更快,在初期其平均奖励更高,但是其收敛的平均奖励明显低于M-FQF。M-FQF在该问题上表现最好。从图6可以看出,M-FQF在该问题上收敛较为缓慢,但是最后获得了较高的平均奖励,说明其学习到了一个较好的策略。而IQN-RAINBOW依然收敛最快,但是收敛的平均奖励并不高且稳定性不好,出现了很多明显的波峰和波谷。M-FQF则相对稳健,整个训练过程没有出现明显的波峰和波谷。Berzerk问题的训练情况如图7所示,M-FQF和IQN-RAINBOW收敛都很快,初期IQN-RAINBOW就获得了最高平均奖励,比M-FQF还稍高一些。但在5×250 000 step后IQN-RAINBOW就趋于收敛了,与其同时,其他3种算法也都趋于收敛,而M-FQF平均奖励还在不断上升,最后获得了最高的平均奖励。可以看出,在Berzerk问题上,M-FQF算法性能最优,QR-DQN性能最差。

将M-FQF与非DQN系列算法的A2C进行比较,如图8图9所示。

Download:
图 8  M-FQF和A2C算法在Berzerk上的回报 Fig. 8  Return of M-FQF and A2C algorithms on Berzerk
Download:
图 9  M-FQF和A2C算法算法在BeamRider上的回报 Fig. 9  Return of M-FQF and A2C algorithms on BeamRider

图8可以看出,Berzerk问题上A2C算法收敛很快,在2.5×250 000 step左右已经获得较高的回报。反观M-FQF算法在1.25×2 500 000 step之前尚未表现出收敛,1.25×2 500 000 step以后M-FQF算法反超A2C算法,获得了相对高的回报。图9中A2C算法趋于平稳,而M-FQF算法获得了相对高的回报。可以看出A2C算法相对稳定,而M-FQF算法相对有些波动,不够稳定。

除了与以上算法进行比较,本文对比了加入MEG探索和加入噪声网络以及优先经验回放在Bankheist和Roadrunner问题上的性能,如图10图11所示(彩色效果见《计算机工程》官网HTML版),可以看出,加入了MEG探索的FQF算法性能明显提高。

Download:
图 10  FQF算法在BankHeist上的平均奖励 Fig. 10  Average reward of FQF algorithms on BankHeist
Download:
图 11  FQF算法在RoadRunner上的平均奖励 Fig. 11  Average reward of FQF algorithms on RoadRunner

为测试MEG探索是否对收敛结束时的参数值有依赖,在BankHeist环境下做了4个实验,设置算法收敛过程中使用随机探索和MEG探索的概率之和为0.01。用$ e $表示随机探索的概率,$ m $表示使用MEG探索的概率。M-FQF不同探索参数的平均奖励如图12所示(彩色效果见《计算机工程》官网HTML版)。

Download:
图 12  M-FQF算法在BankHeist上的平均奖励 Fig. 12  Average reward of M-FQF algorithm on BankHeist

可以看出,随着智能体使用MEG探索的概率从0.01下降到0.002,智能体所获得的平均奖励也在不断减少,说明M-FQF算法对于收敛过程中MEG探索的概率参数设置有所依赖,使用MEG探索的概率越大,算法性能越好。

4 结束语

本文设计一个基于奖励排序的M表,进而提出基于M表的MEG探索策略,并都加入到FQF算法中,以提高算法的探索效率,缓解过度探索的问题。实验结果表明,该策略在Playing Atari 2600游戏中取得了较高的平均奖励。但MEG探索依然存在不足,如在部分游戏中收敛速度缓慢。下一步将针对此问题,通过调整探索方法进一步优化MEG探索效果,如将M表中实际存在的最佳子策略个数和有效访问次数考虑在利用M表进行探索的概率计算过程中,或对M表中的最佳子策略进行路径规划,通过逻辑处理导出新的最佳子策略或启发策略。

参考文献
[1]
SUTTON R S, BARTO A G. Reinforcement learning:an introduction[M]. Cambridge, USA: MIT Press, 2018.
[2]
KEARNS M, SINGH S. Near-optimal reinforcement learning in polynomial time[J]. Machine Learning, 2002, 49(2/3): 209-232. DOI:10.1023/A:1017984413808
[3]
JAKSCH T, ORTNER R, AUER P. Near-optimal regret bounds for reinforcement learning[J]. Journal of Machine Learning Research, 2010, 11(4): 1-5.
[4]
MONTAGUE P R. Reinforcement learning:an introduction, by Sutton, R.S. and Barto, A.G[J]. Trends in Cognitive Sciences, 1999, 3(9): 360. DOI:10.1016/S1364-6613(99)01331-5
[5]
WILLIAMS R J. Simple statistical gradient-following algorithms for connectionist reinforcement learning[J]. Machine Learning, 1992, 8(3/4): 229-256. DOI:10.1023/A:1022672621406
[6]
GEIST M, PIETQUIN O.Managing uncertainty within value function approximation in reinforcement learning[C]//Proceedings of Active Learning and Experimental Design Workshop.Sardinia, Italy:[s.n.], 2010:92.
[7]
BELLEMARE M, SRINIVASAN S, OSTROVSKI G, et al. Unifying count-based exploration and intrinsic motivation[J]. Advances in Neural Information Processing Systems, 2016, 29: 1471-1479.
[8]
OSTROVSKI G, BELLEMARE M G, OORD A, et al.Count-based exploration with neural density models[C]//Proceedings of the 34th International Conference on Machine Learning.Sydney, Australia:JMLR, 2017:2721-2730.
[9]
PATHAK D, AGRAWAL P, EFROS A A, et al.Curiosity-driven exploration by self-supervised prediction[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.Washington D.C., USA:IEEE Press, 2017:16-17.
[10]
PLAPPERT M, HOUTHOOFT R, DHARIWAL P, et al.Parameter space noise for exploration[EB/OL].(2017-06-06)[2020-09-10].https://arxiv.org/pdf/1706.01905.pdf.
[11]
FORTUNATO M, AZAR M G, PIOT B, et al.Noisy networks for exploration[EB/OL].(2017-06-30)[2020-09-10].https://arxiv.org/pdf/1706.10295v1.pdf.
[12]
ZHANG X, MA Y, SINGLA A.Task-agnostic exploration in reinforcement learning[EB/OL].(2017-06-16)[2020-09-10].https://arxiv.org/pdf/2006.09497v1.pdf.
[13]
COMANICI G, PRECUP D.Optimal policy switching algorithms for reinforcement learning[C]//Proceedings of the 9th International Conference on Autonomous Agents and Multiagent Systems.Washington D.C., USA:IEEE Press, 2010:709-714.
[14]
OTTERLO M, WIERING M.Reinforcement learning and Markov decision processes[M]//WIERING M, OTTERLO M.Reinforcement learning.Berlin, Germany:Springer, 2012:3-42.
[15]
FRANOIS-LAVET V, HENDERSON P, ISLAM R, et al. An introduction to deep reinforcement learning[J]. Foundations and Trends in Machine Learning, 2018, 11(3/4): 1-145.
[16]
SHAO K, TANG Z, ZHU Y, et al.A survey of deep reinforcement learning in video games[EB/OL].(2019-12-23)[2020-09-10].https://arxiv.org/pdf/1912.10944.pdf.
[17]
HAARNOJA T, PONG V, ZHOU A, et al.Composable deep reinforcement learning for robotic manipulation[C]//Proceedings of IEEE International Conference on Robotics and Automation.Washington D.C., USA:IEEE Press, 2018:6244-6251.
[18]
WOLF T, DEBUT L, SANH V, et al.HuggingFace's transformers:state-of-the-art natural language processing[C]//Proceedings of 2020 Conference on Empirical Methods in Natural Language Processing:System Demonstrations.[S.l.]:Association for Computational Linguistics, 2020:38-45.
[19]
ESTEVA A, ROBICQUET A, RAMSUNDAR B, et al. A guide to deep learning in healthcare[J]. Nature Medicine, 2019, 25(1): 24-29. DOI:10.1038/s41591-018-0316-z
[20]
YANG D, ZHAO L, LIN Z, et al.Fully parameterized quantile function for distributional reinforcement learning[C]//Proceedings of the 33rd International Conference on Neural Information Processing Systems.New York, USA:ACM Press, 2019:6193-6202.
[21]
DABNEY W, OSTROVSKI G, SILVER D, et al.Implicit quantile networks for distributional reinforcement learning[C]//Proceedings of the 35th International Conference on Machine Learning.[S.l.]:PMLR, 2018:1096-1105.
[22]
DABNEY W, ROWLAND M, BELLEMARE M G, et al.Distributional reinforcement learning with quantile regression[C]//Proceedings of the 32nd AAAI Conference on Artificial Intelligence.[S.l.]:AAAI, 2018:1-5.
[23]
MNIH V, BADIA A P, MIRZA M, et al.Asynchronous methods for deep reinforcement learning[C]//Proceedings of International Conference on Machine Learning.Washington D.C., USA:IEEE Press, 2016:1928-1937.
[24]
ZHANG H, CHEN H, XIAO C, et al.Robust deep reinforcement learning against adversarial perturbations on observations[C]//Proceedings of NeurIPS 2020.Washington D.C., USA:IEEE Press, 2020:1-14.
[25]
TOROMANOFF M, WIRBEL E, MOUTARDE F.Is deep reinforcement learning really superhuman on Atari?[C]//Proceedings of the 39th Conference on Neural Information Processing Systems.Vancouver, Canada:[s.n.], 2019:1-5.