PPO类包含下面四个部分,也就是四个方法 (1)初始化 (2)选择动作 (3)计算状态价值 (4)更新/训练网络的update方法 KL penalty和Clip算法体现在更新actor网络方式不同,也就是下面流程图中的黄色框 actor网络和critic网络更新实现不固定,上述算法是actor网络和critic网络分开更新,有的actor_loss和critic_loss加权后一...
PPO(Proximal Policy Optimization)是基于策略的强化学习算法,属于off-policy算法。核心在于通过KL散度或Clip方法限制策略梯度更新的幅度,从而优化策略。使用KL penalty算法时,神经网络参数按特定公式更新;采用Clip算法时,参数更新方式亦有差异。这两种方法在PPO算法中体现为更新策略的不同方式。伪代码展示...