NIPS24视觉状态空间模型中的标记剪枝 | 与 Transformer 中的注意力模块相比,状态空间模型 (SSM) 具有保持线性计算复杂度的优势,并且已作为一种新型的强大视觉基础模型应用于视觉任务。受视觉 Transformer (ViT) 中的最终预测仅基于最具信息量的 token 子集的观察结果的启发,我们采取了新颖的步骤,通过基于 token 的剪枝来