在由几个输入平面组成的输入信号上应用1D自适应最大池化。 有关详细信息和输出形状,请参阅AdaptiveMaxPool1d。 参数: - output_size– 目标输出大小(单个整数) - return_indices– 是否返回池化的指数torch.nn.functional.adaptive_max_pool2d(input, output_size, return_indices=False) 在由几个输入平面组成的输...
1)torch.nn.MaxPool1d它用于在由多个输入平面组成的输入信号上应用一维最大池。 2)torch.nn.MaxPool2d它用于在由多个输入平面组成的输入信号上应用2D max池。 3)torch.nn.MaxPool3d它用于在由多个输入平面组成的输入信号上应用3D max池。 4)torch.nn.MaxUnpool1d它用于计算MaxPool1d的局部逆。 5)torch.nn....
torch.nn.functional.conv_transpose1d(input, weight, bias=None, stride=1, padding=0, output_padding=0, groups=1)在由几个输入平面组成的输入图像上应用1D转置卷积,有时也被称为去卷积。有关详细信息和输出形状,参考ConvTranspose1d。参数: input– 输入张量的形状 (minibatch x in_channels x iW) ...
torch.nn.functional.avg_pool1d(input, kernel_size, stride=None, padding=0, ceil_mode=False, count_include_pad=True) source 对由几个输入平面组成的输入进行1D平均池化。 有关详细信息和输出形状,参考AvgPool1d 参数: input – 输入的张量 (minibatch x in_channels x iW) kernel_size – 池化区域的...
典型用途包括初始化模型的参数(另见torch-nn-init)。例如:>>> def init_weights(m): >>> print(m) >>> if type(m) == nn.Linear: >>> m.weight.data.fill_(1.0) >>> print(m.weight) >>> >>> net = nn.Sequential(nn.Linear(2, 2), nn.Linear(2, 2)) >>> net.apply(init_...
nn.Fold:逆滑动窗口提取层。 2. Pooling layers nn.MaxPool1d: 一维最大池化。 nn.MaxPool2d:二维最大池化。一种下采样方式。没有需要训练的参数。 nn.MaxPool3d:三维最大池化。 nn.MaxUnpool1d:一维最大逆池化。 nn.MaxUnpool2d:二维最大逆池化,将包含最大值索引的输出作为输入,其中所有非最大值都设置...
torch.nn.MaxPool1d( ** 一维maxpooling (初始化类) kernel_size,*卷积核尺寸 stride=None,*步长,默认=kernel_size padding=0,*zero padding dilation=1,*膨胀卷积中,膨胀系数(卷积核间隔) return_indices=False,*是否同时返回max位置的索引;一般在torch.nn.MaxUnpool1d中很有用(maxpool逆计算) ...
self.cnn3 = nn.Conv1d(32,16,3) # 要求输入的词向量维度为32, 卷积之后输出的词向量维度为16, 卷积核大小为32 * 3 # 池化层,kernel_size=2,表示在两个词对应位置中选最大保留,词向量维度不变 self.maxp = nn.MaxPool1d(kernel_size=2, stride=1) ...
1. torch.nn.Parameter() 一种张量,被认为是一个模参数。 Parameter是Tensor的子类,当与Module s一起使用时,它们有一个非常特殊的属性——当它们被分配为模块属性时,它们会自动添加到参数列表中,并将出现在Parameters()迭代器中(可以通过nn.Moudle.Parameter()获得)。