Federated Class Incremental Learning(联邦类增量学习)是一种在联邦学习架构下的多中心协作方法。其主要思想是通过共享中间模型而不是训练数据来绕过数据隐私的限制,从而促进多中心协作开发深度学习算法。 联邦学习(FL)的训练是基于去中心化用户的隐私数据。在实际情况中,联邦学习的训练和部署都处于动态变化的环境中,会有...
Class-Aware Gradient Compensation Loss: 具体思想可以参考作者的另一篇文章:Addressing Class Imbalance in Federated Learning (AAAI 2021),具体来说就是对loss进行re-weight,当某个类别数量较少时(new/old),给其loss赋予一个更大的权值,从而解决client本地数据集中新旧样本不平衡的问题。 Class-Semantic Relation D...
Incremental learning of object detectors Shmelkov等人将LwF应用于目标检测任务。但是,它们的框架只能应用于外部计算提案的对象检测器,例如Fast R-CNN[13]。 实验表明,该方法适用于更高效的single-shot目标检测体系结构,如RetinaNet[30]。 Exploiting external data 在计算机视觉中,利用外部数据来提高目标任务性能的思想...
LwF(Learning without Forgetting)是增量学习领域的早期文章,其核心要点包括利用额外内存保存旧模型,用于新任务训练时提供旧类监督信息。iCaRL(Incremental Classifier and Representation Learning)被视为类增量学习方向的基石,采用创建示例集存储典型旧类样本,结合知识蒸馏提供旧类监督信息。BiC(Bias Correc...
Few-Shot Class-Incremental Learning(FSCIL)需要CNN模块从非常少的标签样本增量地学习新的类别,同时不忘记之前的任务.为了解决这个问题,本文使用NG(neural gas) network来表示知识, NG网络能够很好学习和保存不同类形成的特征拓扑结构. 本文提出了TOpology-Preserving knowledge InCrementer(TOPIC) 框架. TOPIC通过稳定NG...
[29]Class-Incremental Learning with Strong Pre-trained Models.pdf1. Motivation目前的研究并未考虑新类之间重叠(具有相同类标签)的情况,默认序列间类别不重叠,但这与实际情况不符 初始阶段使用大量类别数据初始化特征提取器,从而获得一个学习到丰富特征的特征提取器本文认为训练得不错的特征提取器就已经能够在新类...
Class Incremental Learning 方法 From Gradient Boosting to Class-Incremental Learning 假定在阶段t已经得到了前一个阶段的模型Ft−1Ft−1(可以被解耦为feature embedding以及linear classifier):Ft−1(x)=(Wt−1)⊤Φt−1(x)Ft−1(x)=(Wt−1)⊤Φt−1(x),其中Φt−1(⋅):RD→RdΦ...
A kind of incremental learning method based on rough sets is proposed here in rules induction system to acquire rule knowledge database. 将Rough集理论应用于规则归纳系统,提出了一种基于粗糙集获取规则知识库的增量式学习方法,能够有效处理决策表中不一致情形,采用启发式算法获取决策表的最简规则,当新对象...
Class-incremental Learning via Deep Model Consolidation 翻译 指的是我们直接用新类的标记图像微调训练在旧类上的模型,而没有对灾难性遗忘进行任何特殊处理固定表示表示在学习了第一组类之后,除了分类层(最后一个完全连接的层)之外,我们冻结网络权重的方法, 在学习了相应...。 现有的IL方法倾向于产生一个偏向于旧...