首页|稳定且受限的新强化学习SAC算法

稳定且受限的新强化学习SAC算法

扫码查看
为解决由于固定温度SAC(Soft Actor Critic)算法中存在的Q函数高估可能会导致算法陷入局部最优的问题,通过深入分析提出了一个稳定且受限的SAC算法(SCSAC:Stable Constrained Soft Actor Critic).该算法通过改进最大熵目标函数修复固定温度SAC算法中的Q函数高估问题,同时增强算法在测试过程中稳定性的效果.最后,在4个OpenAI Gym Mujoco环境下对SCSAC算法进行了验证,实验结果表明,稳定且受限的SAC算法相比固定温度SAC算法可以有效减小Q函数高估出现的次数并能在测试中获得更加稳定的结果.
Novel Reinforcement Learning Algorithm:Stable Constrained Soft Actor Critic
To solve the problem that Q function overestimation may cause SAC(Soft Actor Critic)algorithm trapped in local optimal solution,SCSAC(Stable Constrained Soft Actor Critic)algorithm is proposed for perfectly resolving the above weakness hidden in maximum entropy objective function improving the stability of Stable Constrained Soft Actor Critic algorithm in trailing process.The result of evaluating Stable Constrained Soft Actor Critic algorithm on the suite of OpenAI Gym Mujoco environments shows less Q value overestimation appearance and more stable results in trailing process comparing with SAC algorithm.

reinforcement learningmaximum entropy reinforcement learningQ value overestimationsoft actor critic(SAC)algorithm

海日、张兴亮、姜源、杨永健

展开 >

吉林大学计算机科学与技术学院,长春 130012

中国移动通信集团有限公司中国移动通信集团吉林有限公司,长春 130022

强化学习 最大熵强化学习 Q值高估 SAC算法

吉林省发改委创新能力建设项目吉林省科技发展计划重点项目

2020C017-220210201082GX

2024

吉林大学学报(信息科学版)
吉林大学

吉林大学学报(信息科学版)

CSTPCD
影响因子:0.607
ISSN:1671-5896
年,卷(期):2024.42(2)
  • 15