那么这个256就是被卷积对象的维度,2k和4k就是卷积核的个数。 结合代码来看,如下 classSiamRPN(nn.Module):def__init__(self,anchor_num=5):super(SiamRPN,self).__init__()self.anchor_num=anchor_numself.feature=nn.Sequential(# conv1nn.Conv2d(3,192,11,2),nn.BatchNorm2d(192),nn.ReLU(inplace=...
其代码定义如下: classResNetPP(nn.Module):def__init__(self,block,layers,used_layers):self.inplanes=64super(ResNetPP,self).__init__()self.conv1=nn.Conv2d(3,64,kernel_size=7,stride=2,padding=0,# 3bias=False)self.bn1=nn.BatchNorm2d(64)self.relu=nn.ReLU(inplace=True)self.maxpool=...
可以看出来,SiameseRPN网络并不复杂。 有点尴尬的是这段代码不包含训练过程,我重新找了一段代码,代码连接如下: https://github.com/zllrunning/SiameseX.PyTorch/issues 根据上面代码中的siamese RPN的部分代码,我们对Siamese RPN的训练过程进行解析。 3.训练过程详细解析 上面对Siamese RPN网络的结构...