在pytorch中,很多操作都用到了浅拷贝的思路,只是重新定义下标与元素的对应关系。例如在使用transpose()进行转置操作时,pytorch不会创建转置后的,新的tensor,仅仅修改tensor中的一些属性(元数据)。转置和原数据的内存是共享的。 不使用contiguous()之前 import torch x = torch.randn(3, 2) y = torch.transpose(x...