智源视觉团队近期的工作:3D视觉大模型Uni3D在ICLR 2024的评审中获得了688分,被选为Spotlight Presentation。在本文中,作者第一次将3D基础模型成功scale up到了十亿(1B) 级别参数量,并使用一个模型在诸多3D下游应用中取得SOTA结果。代码和各个scale的模型(从6M-1B)均已开源: 论文地址:arxiv.org/abs/2310.0677 代...
你还真别说,被ICLR 2024接收为Spotlight的“One for All(OFA)”框架就实现了这个“精髓”。 它由圣路易斯华盛顿大学陈一昕教授团队、北京大学张牧涵以及京东研究院陶大程等研究者们联合提出。 作为图领域首个通用框架,OFA实现了训练单一GNN模型即可解决图领域内任意数据集、任意任务类型、任意场景的分类任务。 具体如何...
这是AnimateDiff的核心部分。这个模块通过从视频数据集(如WebVid-10M)中学习合理的运动先验(motion priors),能够在推理时直接插入到personalized T2I模型中,生成流畅的动画,而无需针对特定模型进行调整。在 为了在拓展原本T2I模型的并在时间维度上对Motion进行建模,需要视频数据进行特殊处理。 在原本模型的图像层,将视...
你还真别说,被ICLR 2024接收为Spotlight的“One for All(OFA)”框架就实现了这个“精髓”。 它由圣路易斯华盛顿大学陈一昕教授团队、北京大学张牧涵以及京东研究院陶大程等研究者们联合提出。 作为图领域首个通用框架,OFA实现了训练单一GNN模型即可解决图领域内任意数据集、任意任务类型、任意场景的分类任务。 具体如何...
探索ICLR‘24 Spotlight中的首个十亿级别3D通用大模型 智源视觉团队近期的工作:3D视觉大模型Uni3D在ICLR 2024的评审中获得了688分,被选为Spotlight Presentation。在本文中,作者第一次将3D基础模型成功scale up到了十亿(1B)级别参数量,并使用一个模型在诸多3D下游应用中取得SOTA结果。代码和各个scale的模型(从6M-1...
入选ICLR'24 Spotlight,任意数据集、分类问题都可搞定 作为图领域首个通用框架,OFA实现了训练单一GNN模型即可解决图领域内任意数据集、任意任务类型、任意场景的分类任务。 能不能有一种通用的图模型—— 它既能够根据分子结构预测毒性,又能够给出社交网络的朋友推荐?
近日,人工智能顶会之一ICLR 2024录用结果揭晓,蚂蚁集团有11篇论文被收录,其中1篇为Oral,3篇为Spotlight,7篇为Poster,蚂蚁集团在AI学术领域的进展受到关注。 (图:蚂蚁集团的《长视频中的多粒度噪声关联学习》被收录为Oral论文) ICLR组委会今年共收到了7262篇论文投稿,录用率约为31%。其中,1.2%被录用为Oral论文,作...
GIM 的主页的地址是 /gim。欢迎大家跳转到 GIM 的主页,浏览更详细生动的介绍视频、开源的代码,在线体验 GIM 匹配效果的 HuggingFace Demo。 Blog:https://community.intel.com/t5/Blogs/Tech-Innovation/Artificial-Intelligence-AI/Intel-Labs-Research-Work-Receives-Spotlight-Award-at-Top-AI/post/1575985...
ICLR 2024接收结果揭晓!据统计,本届会议共收到了7262篇论文,整体接收率约为31%,与去年(31.8%)基本持平。其中Spotlight论文比例为5%,Oral论文比例为1.2%。 会议将于今年5月7日-11日在奥地利维也纳会展中心举行。 从各位研究者的分享来看,像四、五篇论文收入囊中的不少。
baaivision/Uni3D Uni3D: Exploring Unified 3D Representation at Scale Junsheng Zhou1,2*,Jinsheng Wang1*,Baorui Ma1*,Yu-Shen Liu2,Tiejun Huang1,3,Xinlong Wang1 1BAAI,2THU,3PKU *Equal Contribution ICLR 2024 (Spotlight) We present Uni3D, a unified and scalable 3D pretraining framework for ...