'hero' + str(i) + '.png')).convert img.convert_alpha img.set_colorkey(ALPHA) self.images.append(img) self.image = self.images[0] self.rect = self.image.get_rect def jump(self,platform_list): self.jump_delta = 0 def gravity(self): self.movey += 3.2 # how fast player falls...
self.image.set_colorkey(bg_color) pygame.draw.ellipse(self.image, color, [0,0, width, height]) self.rect =self.image.get_rect self.rect.left = x self.rect.top = y '''角色类''' classPlayer(pygame.sprite.Sprite): def__init__(self, x, y, role_image_path): pygame.sprite.Sprite...
首先, 我们需要 a1, a2 正确的Q值, 这个 Q 值我们就用之前在 Q learning 中的 Q 现实来代替. 同样我们还需要一个Q估计来实现神经网络的更新. 所以神经网络的的参数就是老的NN参数加学习率 alpha乘以Q现实和Q估计的差距。 我们通过 NN 预测出Q(s2, a1) 和 Q(s2,a2) 的值, 这就是 Q 估计. 然后我...