在 Pytorch 中,张量通过 inplace 操作移动到共享内存share_memory_()。另一方面,通过使用shared_memory模块,我们可以得到与内置包相同的结果。 我很难理解两者之间的区别在于,使用内置版本,我们必须显式访问启动进程内的共享内存块。然而,我们不需要使用 Pytorch 版本这样做。 这是一个Pytorch的玩具示例,显示了这一点...