首先祝贺一作 @许晶晶 ,非常不容易!!! 其次回答这个问题:关于从ICLR到ACL的转投,当时情况是这样的,我们在投ICLR的时候,花了太多时间在实验上,在writing上花的时间很不够,整个paper显地平铺直叙,Intuition没有说出来,且有部分重要的实验没有补充。结果大家也看到了,我觉得这是一个重要的lesson,也欢迎大家对比我们...
这次ACL的best paper是我组同事的论文,首先我非常羡慕。至于“如何看待”:显然改过的paper相对于之前的...
其实ICLR的评审和ACL的评委都对我们的Idea做了肯定,新颖性和有趣性都是被承认的,我们给出的基于最大边际效应的解释,和把词表学习建模成一个最优运输问题都是全新的一套想法。ICLR对idea没有太多问题,问题主要是在写作上,后来我们把写作改进之后,能拿到高分虽然意料之外,倒也在情理之中。有一说一,我们ICLR那篇...
000 worker scale on a distributed memory environment using multiple compute nodes and can be applied to molecular design. This paper is the first work that applies distributed MCTS to a real-world and non-game problem. Existing works on large-scale parallel MCTS show...
Code for ICLR 2021 paper Dance Revolution: Long-Term Dance Generation with Music via Curriculum Learning - Lezvin/DanceRevolution
Communications of the ACM, 2021. David Tran, Alex Valtchanov, Keshav Ganapathy, Raymond Feng, Eric Slud, Micah Goldblum, and Tom Goldstein. An open review of openreview: A critical analysis of the machine learning conference review process. arXiv, 2020. Hsuan-Tien Lin, Maria-Fl...
were introduced into Transformer. One of the more successful cases has been Microsoft Research Asia’s Swin Transformer. By introducing local operation into ViT, Swin Transformer used the shifted window to obtain SOTA results on multiple tasks and won the 2021 ...
其中比较成功地将 local operation 引入 ViT 当中,利用 shift window 的 Swin Transforerm一举获得多个任务的 SOTA 结果,并获得了 Best Paper Award。而其中最核心的模块,Local Attention,究竟有什么神秘之处呢? Local attention 本质上实在一个 2D local window 内进行特征聚合,但其每个位置的聚合权重,通过 KQV ...
我觉得对于推动整个dl theory领域是很重要的一个paper,当然也多亏了iclr能给他best paper,果然眼界和...
https://www.facebook.com/pg/iclr.cc/videos/ 三篇Best Paper: On the convergence of Adam and Beyond Spherical CNNs Continuous adaptation via meta-learning in nonstationary and 作者简介 刘念宏,清华微电子硕士三年级,《大数据能力提升项目》学生,前清华大学学生大数据研究协会会长。