federated class incremental learning Federated Class Incremental Learning(联邦类增量学习)是一种在联邦学习架构下的多中心协作方法。其主要思想是通过共享中间模型而不是训练数据来绕过数据隐私的限制,从而促进多中心协作开发深度学习算法。 联邦学习(FL)的训练是基于去中心化用户的隐私数据。在实际情况中,联邦学习的...
Class-Aware Gradient Compensation Loss: 具体思想可以参考作者的另一篇文章:Addressing Class Imbalance in Federated Learning (AAAI 2021),具体来说就是对loss进行re-weight,当某个类别数量较少时(new/old),给其loss赋予一个更大的权值,从而解决client本地数据集中新旧样本不平衡的问题。 Class-Semantic Relation D...
摘要 Class-incremental learning(CIL)已经在从少量类别(基础类别)开始的情况下得到了广泛的研究。相反,我们探讨了一个在现实世界中鲜有研究的CIL设置,该设置从已经在大量基础类别上进行了预训练的强大模型开始。我们假设一个强大的基础模型可以为新颖的类别提供良好的表示,并且可以通过小的调整来进行增量学习。我们提出了...
[29]Class-Incremental Learning with Strong Pre-trained Models.pdf1. Motivation目前的研究并未考虑新类之间重叠(具有相同类标签)的情况,默认序列间类别不重叠,但这与实际情况不符 初始阶段使用大量类别数据初始化特征提取器,从而获得一个学习到丰富特征的特征提取器本文认为训练得不错的特征提取器就已经能够在新类...
topology preserving class-incremental learning 什么是拓扑保持类增量学习(topology preserving class incremental learning)? 拓扑保持类增量学习是一种机器学习方法,旨在解决在现有分类模型中增加新的类别时出现的问题。通常情况下,当我们需要将新的类别添加到已经训练好的模型中时,传统的机器学习模型需要重新进行训练,这...
1.2 Domain Incremental Learning (Domain-incremental) 域增量学习,又称为领域增量学习,是指学习器在面对一系列任务时,每个任务的数据输入分布(domain)可能不同,但任务的类别集合保持一致。这种学习模式模拟了现实世界中数据分布随时间变化的情况。领域增量学习的挑战在于如何适应新数据分布的同时,保持对旧数据的识别能力...
将class incremental learning转化为task incremental learning,每个task相当于为每个标签y学一个类别条件生成模型。 Method 作者使用VAE作为每个类别要学习的生成式分类器,通过重要性采样估计似然p(x|y)p(x|y),使用均匀分布建模p(y)p(y)。 VAE包含一个encoderqϕqϕ,将输入变为隐空间的后验分布qϕ(z|x)...
方法在类增量学习中引入动态特征结构,实现更好的稳定性和可塑性trade-off。COIL(Category-Order Incremental Learning)利用类别间语义关系进行分类器迁移,实现新旧类知识双向流动。我们开源了一个基于PyTorch的类增量学习框架PyCIL,包含多个基础和前沿类增量学习算法,旨在帮助研究者了解和探索相关领域。
SFFAI论坛网站已开放注册,详情点击查看:https://bbs.sffai.com/d/312 关注公众号:【人工智能前沿讲习】,回复【SFFAI142】获取讲者PPT资料,入交流群,推荐论文下载。 分享亮点: 1. 我们是第一个提出并定义联邦类别增量学习的工作,该问题的主要挑战是不损害联邦学习隐私保护功能的前提下,有效地缓解联邦学习在旧类别数...
IL2M: Class Incremental Learning With Dual Memory 1.总览 本文还是用于解决类增量学习的,学习过程是普通的微调(区别于用蒸馏损失的方法),区别在于加入了两个记忆: 一个记忆样本(exemplar),用于训练过程微调,容量固定(类越多,每类样本量越小); 一个记忆新类微调后的统计量(statistics),用于预测时修正原始分类输...