self.position= (self.position + 1) %self.capacitydefsample(self, batch_size):#采样returnrandom.sample(self.memory, batch_size)def__len__(self):returnlen(self.memory)classDQN(object):def__init__(self, input_size, hidden_size, output_size): self.net=Net(input_size, hidden_size, output...
这是Pensieve [1]的一个简单的TensorFlow实现。 详细地说,我们通过PPO而非A3C培训了Pensieve。 这是一个稳定的版本,已经准备好训练集和测试集,并且您可以轻松运行仓库:只需键入 python train.py 反而。 将每300个时代在测试集(来自HSDPA)上评估结果。
3. 多时间粒度模拟:FinRL在多个时间粒度上模拟了包括纳斯达克100、道琼斯工业平均指数(DJIA)、标准普尔500(S&P 500)、恒生指数(HSI)、上证50和中证300在内的各种股票市场的交易环境。 4. 分层架构与模块化结构:FinRL采用分层架构和模块化结构组织,提供了微调的最新DRL算法(如DQN、DDPG、PPO、SAC、A2C、TD3等)、常...
self.position= (self.position + 1) %self.capacitydefsample(self, batch_size):#采样returnrandom.sample(self.memory, batch_size)def__len__(self):returnlen(self.memory)classDQN(object):def__init__(self, input_size, hidden_size, output_size): self.net=Net(input_size, hidden_size, output...
以下是老版本,2022年9月14日新增Dueling DQN, Actor-Critic算法, SAC,更新了PPO,DDPG算法,在文末。 DQN: 参考: 算法思想: https://mofanpy.com/tutorials/machine-learning/torch/DQN/ 算法实现 https://pytorch.org/tutorials/intermediate/reinforcement_q_learning.html ...