我们组的同学第一时间看了这篇论文,大家都觉得这篇论文有不小的创新,但其方法能否完全代替扩散模型还有待验证。通常来说,这篇论文的关注度会逐渐降下去,但近期发生的两件大事将 VAR 论文的热度推向了空前的高度:论文一作的严重违纪行为招致字节跳动对其索赔 800 万元、论文被评选为 Neurips 2024 会议的最佳论文。...
适应性领域学习(ADL)策略:作者提出了一种新颖的ADL策略,能够通过自动评估源领域数据的有用性,去除有害数据,从而在目标领域中以少量数据的情况下训练出有效的去噪模型。 动态验证集和软标准评估:作者引入了动态验证集和基于PSNR的软标准评估方法,通过动态采样...
前言现有的超分辨率 (SR) 方法使用 L1 或 L2 损失函数,通过均匀采样图像块来平等地优化所有模型权重,而没有考虑数据集不平衡或参数冗余,这限制了它们的性能。为了解决这个问题,本文从统计概率的角度将图像 SR 任务表述为不平衡分布迁移学习问...
本文收录于2024NIPS,是上海AI Lab、北京大学、香港中文大学(薛天帆,Jinwei Gu等人)联合发布的新型ISP研究。 【写在前面】感觉本文是特别“实验科学”的一篇论文,有很多论点都是基于实验现象/结果提出来的 只需要ISP的前两个阶段就能在目标检测任务上提点86%,考虑到时间消耗和实时性需求,没必要都跑完 颜色处理对于【...
本文介绍清华大学智能驾驶课题组(iDLab)在 NeurIPS 2024 发表的最新研究成果《Diffusion Actor-Critic with Entropy Regulator》。该算法创新性地将扩散模型的反向过程作为策略函数,使在线强化学习算法能够产生多模态动作分布。此外,本文提出了基于高斯混合模型的熵正则化方法,显著提升了算法的整体性能。
本文介绍清华大学智能驾驶课题组(iDLab)在 NeurIPS 2024 发表的最新研究成果《Diffusion Actor-Critic with Entropy Regulator》。该算法创新性地将扩散模型的反向过程作为策略函数,使在线强化学习算法能够产生多模态动作分布。此外,本文提出了基于高斯混合模型的熵正则化方法,显著提升了算法的整体性能。
简介:在NIPS 2024上,UIUC、UC Berkeley等高校联合提出SelfCodeAlign方法,通过自我对齐使代码生成的大型语言模型(LLMs)在无需大量人工注释或蒸馏的情况下显著提升性能。该方法利用基础模型生成多样化编码任务并自我验证,最终选择通过测试的示例用于指令微调。实验表明,SelfCodeAlign微调的模型在多个编码任务上显著优于其他方法...
NeurIPS 2024The Thirty-Eighth Annual Conference on Neural Information Processing Systems Dec 9, 2024 - Dec 15, 2024Vancouver, CanadaMay 22, 2024 (May 15, 2024) NIPS 2023Neural Information Processing Systems Dec 10, 2023 - Dec 16, 2023TBDMay 17, 2023 (May 11, 2023) ...
简介:在NIPS 2024上,UIUC、UC Berkeley等高校联合提出SelfCodeAlign方法,通过自我对齐使代码生成的大型语言模型(LLMs)在无需大量人工注释或蒸馏的情况下显著提升性能。该方法利用基础模型生成多样化编码任务并自我验证,最终选择通过测试的示例用于指令微调。实验表明,SelfCodeAlign微调的模型在多个编码任务上显著优于其他方法...
在医学多模态框架中,跨模态特征的对齐是一个显著的挑战。然而,现有工作从数据中隐式学习了对齐特征,而没有考虑医学背景中的显式关系。这种对数据的依赖可能导致学习到的对齐关系泛化能力较低。在这项工作中,作者提出了眼动引导的多模态对齐(EGMA)框架,利用眼动数据来