mixout 以一定的概率,用预训练的权重代替当前权重,防止 finetune 时遗忘过多过去学到的知识,也防止跑太远。 layer-wise learning rate decay top layer用大点的learning rate,bottom layer用小点的learning rate。出发点还是基于上面提到的共识,不过这里更 general,因为 learning rate 为 0 时,权重就 freeze 了。
进一步在ActivityNet-v1.3数据集上进行finetuen,并根据官方的评估指标计算mAP。 Few-Shot Video Recognition. 传统的方法一般是5-shot 5-way方式,这里挑战的是K-shot C-way,即通过K个sample的学习对视频中的所有类别进行分类。对应的两种上下界分别就是zero shot和all shot。 可以看到在极少的shot下相比之前的其他...