在本文中,我们首先对 CLIP 上的各种微调方法与模型更新的兼容性进行了详细分析。研究表明,许多高性能的微调方法无法与升级后的模型兼容。为了解决这个问题,我们提出了一种新方法,即类条件上下文优化 (ContCoOp),该方法使用注意力层将可学习的提示与类嵌入集成,然后再将它们输入到文本编码器中。因此,提示可以动态适应...