强化学习——值迭代和策略迭代
生活随笔
收集整理的這篇文章主要介紹了
强化学习——值迭代和策略迭代
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
【強化學(xué)習(xí)】值迭代和策略迭代
在強化學(xué)習(xí)中我們經(jīng)常會遇到策略迭代與值迭代,但是很多人都搞不清楚他們兩個之間的區(qū)別,他們其實都是強化學(xué)習(xí)中的動態(tài)規(guī)劃方法(DP)。 ——《Reinforcement Learning:An Introduction》
(一)值迭代
對每一個當(dāng)前狀態(tài) s ,對每個可能的動作 a 都計算一下采取這個動作后到達的下一個狀態(tài)的期望價值。看看哪個動作可以到達的狀態(tài)的期望價值函數(shù)最大,就將這個最大的期望價值函數(shù)作為當(dāng)前狀態(tài)的價值函數(shù) V(s) ,循環(huán)執(zhí)行這個步驟,直到價值函數(shù)收斂。?
(二)策略迭代
從一個初始化的策略出發(fā),先進行策略評估,然后改進策略,評估改進的策略,再進一步改進策略,經(jīng)過不斷迭代更新,直達策略收斂,這種算法被稱為“策略迭代”
?
?
?
?
References:
?[1] 【強化學(xué)習(xí)】值迭代與策略迭代
?
?
?
轉(zhuǎn)載于:https://www.cnblogs.com/xxxxxxxxx/p/11536460.html
總結(jié)
以上是生活随笔為你收集整理的强化学习——值迭代和策略迭代的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: NOIP2007 树网的核 [BZOJ
- 下一篇: 一种算法的实现,几个相同大小的div组合