torch.distributed.init_process_group(backend=None, init_method=None, timeout=datetime.timedelta(seconds=1800), world_size=-1, rank=-1, store=None, group_name='', pg_options=None) 在DistributedDataParallel()中,第一个参数module是你想要并行话的module,在训练中也就是你的模型。 参数device_id和ou...