声明:此问题普遍存在于各个新旧 pytorch 版本(至少在 torch<=1.11 中都存在),主要原因是 DataLoader 的构造参数 generator 受严重忽视。而且使用官方提供的 worker_init_fn 无法解决此问题 [1]。本文是基于对 [2]的补充。 你是否这样设置过随机数种子? def set_seed(seed=3407): # torch.manual_seed(3407) is...
程序将def worker_init_fn 放在了trainer_synapse里面,所以外部调用trainer_synapse的时候找不到worker_init_fn函数(还没被定义) 所以我就简单地将代码改成了: defworker_init_fn(worker_id): random.seed(1234 +worker_id)deftrainer_synapse(args, model, snapshot_path):fromdatasets.dataset_synapseimportSynaps...