强化学习(十三) 策略梯度(Policy Gradient)
在前面講到的DQN系列強(qiáng)化學(xué)習(xí)算法中,我們主要對(duì)價(jià)值函數(shù)進(jìn)行了近似表示,基于價(jià)值來(lái)學(xué)習(xí)。這種Value Based強(qiáng)化學(xué)習(xí)方法在很多領(lǐng)域都得到比較好的應(yīng)用,但是Value Based強(qiáng)化學(xué)習(xí)方法也有很多局限性,因此在另一些場(chǎng)景下我們需要其他的方法,比如本篇討論的策略梯度(Policy Gradient),它是Policy Based強(qiáng)化學(xué)習(xí)方法,基于策略來(lái)學(xué)習(xí)。
本文參考了Sutton的強(qiáng)化學(xué)習(xí)書(shū)第13章和策略梯度的論文。
1. Value Based強(qiáng)化學(xué)習(xí)方法的不足
DQN系列強(qiáng)化學(xué)習(xí)算法主要的問(wèn)題主要有三點(diǎn)。
第一點(diǎn)是對(duì)連續(xù)動(dòng)作的處理能力不足。DQN之類(lèi)的方法一般都是只處理離散動(dòng)作,無(wú)法處理連續(xù)動(dòng)作。雖然有NAF DQN之類(lèi)的變通方法,但是并不優(yōu)雅。比如我們之前提到的經(jīng)典的冰球世界(PuckWorld) 強(qiáng)化學(xué)習(xí)問(wèn)題,具體的動(dòng)態(tài)demo見(jiàn)這里。環(huán)境由一個(gè)正方形區(qū)域構(gòu)成代表著冰球場(chǎng)地,場(chǎng)地內(nèi)大的圓代表著運(yùn)動(dòng)員個(gè)體,小圓代表著目標(biāo)冰球。在這個(gè)正方形環(huán)境中,小圓會(huì)每隔一定的時(shí)間隨機(jī)改變?cè)趫?chǎng)地的位置,而代表個(gè)體的大圓的任務(wù)就是盡可能快的接近冰球目標(biāo)。大圓可以操作的行為是在水平和豎直共四個(gè)方向上施加一個(gè)時(shí)間乘時(shí)長(zhǎng)的力,借此來(lái)改變大圓的速度。假如此時(shí)這個(gè)力的大小和方向是可以靈活選擇的,那么使用普通的DQN之類(lèi)的算法就不好做了。因?yàn)榇藭r(shí)策略是一個(gè)有具體值有方向的力,我們可以把這個(gè)力在水平和垂直方向分解。那么這個(gè)力就是兩個(gè)連續(xù)的向量組成,這個(gè)策略使用離散的方式是不好表達(dá)的&#x
總結(jié)
以上是生活随笔為你收集整理的强化学习(十三) 策略梯度(Policy Gradient)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 强化学习(十二) Dueling DQN
- 下一篇: 强化学习(十四) Actor-Criti