文档维护:Arvin
网页部署:Arvin
▶
近端策略优化(PPO)算法
重要性采样
基于策略的方法可以分为**同策略(on-policy)和异策略(off-policy)**方法。在强化学习中,如果要学习的智能体和与环境交互的智能体是相同的,我们称为同策略。如果是不同的,我们称为异策略。
为什么我们会想要考虑异策略?让我们回忆一下策略梯度。策略梯度是同策略的算法,因为在策略梯度中,我们需要一个智能体、一个策略和一个演员。演员去与环境交互搜集数据,搜集很多的轨迹 τ,根据搜集到的数据按照策略梯度的公式更新策略的参数,所以策略梯度是一个同策略的算法。PPO是策略梯度的变形,它是现在 OpenAI 默认的强化学习算法。
∇Rˉθ=Eτ∼pθ(τ)[R(τ)∇logpθ(τ)]
问题在于上式的 Eτ∼pθ(τ) 是对策略 πθ 采样的轨迹 τ 求期望。一旦更新了参数,从 θ 变成 θ′ ,概率 pθ(τ) 就不对了,之前采样的数据也不能用了。所以策略梯度是一个会花很多时间来采样数据的算法,其大多数时间都在采样数据。智能体与环境交互以后,接下来就要更新参数。我们只能更新参数一次,然后就要重新采样数据, 才能再次更新参数。这显然是非常花时间的,所以我们想要从同策略变成异策略,这样就可以用另外一个策略πθ′、另外一个演员θ′ 与环境交互(θ′ 被固定了),用 θ′ 采样到的数据去训练 θ。假设我们可以用 θ′ 采样到的数据去训练 θ,我们可以多次使用 θ′ 采样到的数据,可以多次执行梯度上升(gradient ascent),可以多次更新参数, 都只需要用同一批数据。因为假设 θ 有能力学习另外一个演员 θ′ 所采样的数据,所以θ′ 只需采样一次,并采样多一点的数据,让 θ 去更新很多次,这样就会比较有效率。
重要性采样:对于一个随机变量,我们通常用概率密度函数来刻画该变量的概率分布特性。具体来说,给定随机变量的一个取值,可以根据概率密度函数来计算该值对应的概率(密度)。反过来,也可以根据概率密度函数提供的概率分布信息来生成随机变量的一个取值,这就是采样。因此,从某种意义上来说,采样是概率密度函数的逆向应用。与根据概率密度函数计算样本点对应的概率值不同,采样过程往往没有那么直接,通常需要根据待采样分布的具体特点来选择合适的采样策略。
假设我们有一个函数 f(x),要计算从分布 p 采样 x,再把 x 代入 f ,得到 f(x)。我们该怎么计算 f(x) 的期望值呢?假设我们不能对分布 p 做积分,但可以从分布 p 采样一些数据 xi。把 xi 代入 f(x),取它的平均值,就可以近似 f(x) 的期望值。
现在有另外一个问题,假设我们不能从分布 p 采样数据,只能从另外一个分布 q 采样数据x,q 可以是任何分布。如果我们从 q 采样 xi,就不能使用下式。因为式下式是假设 x 都是从 p 采样出来的。
Ex∼p[f(x)]≈N1i=1∑Nf(xi)
所以我们做一个修正,期望值 Ex∼p[f(x)] 就是 ∫f(x)p(x)dx,我们对其做如下的变换:
∫f(x)p(x)dx=∫f(x)q(x)p(x)q(x)dx=Ex∼q[f(x)q(x)p(x)]
就可得
Ex∼p[f(x)]=Ex∼q[f(x)q(x)p(x)]
我们就可以写成对 q 里面所采样出来的 x 取期望值。我们从 q 里面采样 x,再计算 f(x)q(x)p(x),再取期望值。所以就算我们不能从 p 里面采样数据,但只要能从 q 里面采样数据,就可以计算从 p 采样 x 代入 f 以后的期望值。
因为是从 q 采样数据,所以我们从 q 采样出来的每一笔数据,都需要乘一个重要性权重(importance weight) q(x)p(x) 来修正这两个分布的差异。q(x) 可以是任何分布,唯一的限制就是 q(x) 的概率是 0 的时候,p(x) 的概率不为 0,不然会没有定义。假设 q(x) 的概率是 0 的时候,p(x) 的概率也都是 0,p(x) 除以 q(x)是有定义的。所以这个时候我们就可以使用重要性采样,把从 p 采样换成从 q 采样。
重要性采样有一些问题。虽然我们可以把 p 换成任何的 q。但是在实现上, p 和 q 的差距不能太大。差距太大,会有一些问题。比如,虽然式(5.3)成立(式(5.3)左边是 f(x) 的期望值,它的分布是 p,式(5.3)右边是 f(x)q(x)p(x) 的期望值,它的分布是 q),但如果不是计算期望值,而是计算方差,Varx∼p[f(x)] 和 Varx∼q[f(x)q(x)p(x)] 是不一样的。两个随机变量的平均值相同,并不代表它们的方差相同。
我们可以将 f(x) 和 f(x)q(x)p(x) 代入方差的公式 Var[X]=E[X2]−(E[X])2,可得
Varx∼p[f(x)]=Ex∼p[f(x)2]−(Ex∼p[f(x)])2
Varx∼q[f(x)q(x)p(x)]=Ex∼q[(f(x)q(x)p(x))2]−(Ex∼q[f(x)q(x)p(x)])2=Ex∼p[f(x)2q(x)p(x)]−(Ex∼p[f(x)])2
Varx∼p[f(x)] 和 Varx∼q[f(x)q(x)p(x)] 的差别在于第一项是不同的, Varx∼q[f(x)q(x)p(x)] 的第一项多乘了q(x)p(x),如果 q(x)p(x) 差距很大,f(x)q(x)p(x) 的方差就会很大。所以理论上它们的期望值一样,也就是,我们只要对分布p采样足够多次,对分布q采样足够多次,得到的结果会是一样的。但是如果我们采样的次数不够多,因为它们的方差差距是很大的,所以我们就有可能得到差别非常大的结果。
现在要做的就是把重要性采样用在异策略的情况中,把同策略训练的算法改成异策略训练的算法。如下式所示,之前我们用策略πθ与环境交互,采样出轨迹τ,计算 R(τ)∇logpθ(τ)。现在我们不用θ与环境交互,假设有另外一个策略 πθ′,它就是另外一个演员,它的工作是做示范(demonstration)。
∇Rˉθ=Eτ∼pθ′(τ)[pθ′(τ)pθ(τ)R(τ)∇logpθ(τ)]
和上一章一样,其中R(τ)可以用优势函数Aθ(st,at)代替:
E(st,at)∼πθ′[pθ′(st,at)pθ(st,at)Aθ(st,at)∇logpθ(atn∣stn)]
且:
pθ(st,at)pθ′(st,at)=pθ(at∣st)pθ(st)=pθ′(at∣st)pθ′(st)
由于pθ(st)和pθ′(st)由环境决定,所以假设两者一样就直接消掉。
E(st,at)∼πθ′[pθ′(at∣st)pθ(at∣st)Aθ′(st,at)∇logpθ(atn∣stn)]
近端策略优化
我们通过重要性采样将同策略变为异策略,但是重要性采样有一个问题:如果 pθ(at∣st) 与 pθ′(at∣st) 相差太多,即这两个分布相差太多,重要性采样的结果就会不好。
所以我们会添加一个约束,这个约束是θ和θ′输出的动作的KL散度(KL divergence),是用来衡量两个分布的“距离”即相似程度。
JPPOθ′(θ)=Jθ′(θ)−βKL(θ,θ′)Jθ′(θ)=E(st,at)∼πθ′[pθ′(at∣st)pθ(at∣st)Aθ′(st,at)](5.6)
PPO有一个前身:信任区域策略优化
JTRPOθ′(θ)=E(st,at)∼πθ′[pθ′(at∣st)pθ(at∣st)Aθ′(st,at)],KL(θ,θ′)<δ
TRPO 与 PPO 不一样的地方是约束所在的位置不一样,PPO 直接把约束放到要优化的式子里面,我们就可以用梯度上升的方法去最大化式(5.6)。但 TRPO 是把 KL 散度当作约束,它希望 θ 与 θ′ 的 KL 散度小于 δ。如果我们使用的是基于梯度的优化,有约束是很难处理的。TRPO 是很难处理的,因为它把 KL 散度约束当作一个额外的约束,没有放在目标(objective)里面,所以它很难计算。因此我们一般就使用 PPO,而不使用 TRPO 。PPO 与 TRPO 的性能差不多,但 PPO 在实现上比 TRPO 容易得多。
PPO 算法有两个主要的变种:近端策略优化惩罚(PPO-penalty)和近端策略优化裁剪(PPO-clip)。
KL散度
参考链接:Kullback-Leibler(KL)散度介绍
Kullback-Leibler散度通常称为KL散度,是一种比较两个概率分布的方法。通常在概率和统计中,我们会用更简单的近似分布来代替观察到的数据或复杂的分布。KL散度可以帮助我们衡量在选择近似值时损失了多少信息。
分布熵
熵是信息论中的概念,主要用来量化数据中有多少信息
H=−i=1∑Np(xi)logp(xi)
如果计算中使用log2,则单位是比特bit;使用log3,单位为Tet;使用loge,单位为Nat;使用log10,单位为Hart;是因为我们的数字电路设计是基于布尔逻辑的,布尔逻辑中只有两种状态,所以一般用比特。
KL散度
KL散度是对熵公式的略微修改。不仅有原来的概率分布p,还有近似分布q。
DKL(p∣∣q)=i=1∑Np(xi)(logp(xi)−logq(xi))
即:
DKL(p∣∣q)=E[logp(xi)−logq(xi)]
更常见的写法为:
DKL(p∣∣q)=i=1∑Np(xi)(logq(xi)p(xi))
近端策略优化惩罚
我们来看一下 PPO1 算法,即近端策略优化惩罚算法。它先初始化一个策略的参数 θ0。在每一个迭代里面,我们用前一个训练的迭代得到的演员的参数 θk 与环境交互,采样到大量状态-动作对。根据 θk 交互的结果,我们估测Aθk(st,at)。我们使用 PPO 的优化公式。但与原来的策略梯度不一样,原来的策略梯度只能更新一次参数,更新完以后,我们就要重新采样数据。但是现在不同,我们用 θk 与环境交互,采样到这组数据以后,我们可以让 θ 更新很多次,想办法最大化目标函数,如式(5.7)所示。这里面的 θ 更新很多次也没有关系,因为我们已经有重要性采样,所以这些经验,这些状态-动作对是从 θk 采样出来的也没有关系。θ 可以更新很多次,它与 θk 变得不太一样也没有关系,我们可以照样训练 θ。
JPPOθk(θ)=Jθk(θ)−βKL(θ,θk)(5.7)
在 PPO 的论文里面还有一个自适应KL散度(adaptive KL divergence)。这里会遇到一个问题就,即β 要设置为多少。这个问题与正则化一样,正则化前面也要乘一个权重,所以 KL 散度前面也要乘一个权重,但 β 要设置为多少呢?我们有一个动态调整 β 的方法。在这个方法里面,我们先设一个可以接受的 KL 散度的最大值。假设优化完式(5.7)以后,KL 散度的值太大,这就代表后面惩罚的项βKL(θ,θk) 没有发挥作用,我们就把 β 增大。另外,我们设一个 KL 散度的最小值。如果优化完式(5.7)以后,KL 散度比最小值还要小,就代表后面这一项的效果太强了,我们怕他只优化后一项,使θ 与 θk 一样,这不是我们想要的,所以我们要减小 β。β 是可以动态调整的,因此我们称之为自适应KL惩罚(adaptive KL penalty)。我们可以总结一下自适应KL惩罚:
- 如果 KL(θ,θk)>KLmax,增大 β;
- 如果 KL(θ,θk)<KLmin,减小 β。
近端策略优化惩罚可表示为
JPPOθk(θ)=Jθk(θ)−βKL(θ,θk)Jθk(θ)≈(st,at)∑pθk(at∣st)pθ(at∣st)Aθk(st,at)
近端策略优化裁剪
如果我们觉得计算 KL 散度很复杂,那么还有一个 PPO2算法,PPO2 即近端策略优化裁剪。近端策略优化裁剪的目标函数里面没有 KL 散度,其要最大化的目标函数为
JPPO2θk(θ)≈(st,at)∑min(pθk(at∣st)pθ(at∣st)Aθk(st,at),clip(pθk(at∣st)pθ(at∣st),1−ε,1+ε)Aθk(st,at))
其中,
- 操作符(operator)min 是在第一项与第二项里面选择比较小的项。
- 第二项前面有一个裁剪(clip)函数,裁剪函数是指,在括号里面有3项,如果第一项小于第二项,那就输出 1−ε;第一项如果大于第三项,那就输出 1+ε。
- ε 是一个超参数,是我们要调整的,可以设置成 0.1 或 0.2 。
假设设置 ε=0.2,我们可得
clip(pθk(at∣st)pθ(at∣st),0.8,1.2)
如果 pθk(at∣st)pθ(at∣st) 算出来小于 0.8,那就输出 0.8;如果算出来大于 1.2,那就输出1.2。
我们先要理解
clip(pθk(at∣st)pθ(at∣st),1−ε,1+ε)
下图的横轴代表 pθk(at∣st)pθ(at∣st),纵轴代表裁剪函数的输出。
- 如果 pθk(at∣st)pθ(at∣st) 大于1+ε,输出就是 1+ε;
- 如果小于 1−ε,输出就是 1−ε;
- 如果介于 1+ε ~{} 1−ε,输出等于输入。
参考链接:
论文
重要性采样
Kullback-Leibler(KL)散度介绍