Replay Buffer在帮助代理加速学习以及DDPG的稳定性方面起着至关重要的作用: 最小化样本之间的相关性:将过去的经验存储在 Replay Buffer 中,从而允许代理从各种经验中学习。 启用离线策略学习:允许代理从重播缓冲区采样转换,而不是从当前策略采样转换。 高效采样:将过去的经验存储在缓冲区中,允许代理多次从不同的经验...