公式4展示了Swin Transformer的第二个子块,它包括一个LN层、一个移位窗口多头动态注意力模块(SW-MDA)以及一个带有ReLU激活的MLP。 所提出的MV-Swin-T架构将Omni-Attention模块整合到网络的最初两个阶段中。在第二个阶段之后,来自不同视角的输出被连接起来,并通过一个全连接层进行传递,以保持与单视角乳房X光片的...