由此,我们提出了一种既学习了图文预训练知识,又有效利用多模态标签引导视觉 - 文本对齐的视频检索模型:TABLE(TAgging Before aLignmEnt)。 TABLE 模型在四个视频 - 文本检索的公开数据集上取得了 SOTA 的效果,相关研究已经被 AAAI 2023 录用。 tagging_before_alignment_integ.pdf 4.9M· 百度网盘 TABLE 的优势 视...
0.前言 我们主要来介绍一下我们在AAAI23 (NeurIPS Fast Track)的中稿,SFA:Spectrum Feature Augmentation in Graph Contrastive Leanring and Beyond. 可惜的是在NeurIPS的的分数是7762,和其中一个审稿人针锋相对几回合后,最终还没能赢得AC的青睐被接收. 不过后来想想确实从审稿人的意见中获得了建设性的反馈(后面...
AAAI(国际先进人工智能协会)可是人工智能领域的大咖,他们的年会自然也是学术界的盛宴。🎉这次会议上,有几篇量化交易的论文特别吸引我的注意,下面就给大家详细介绍一下: 金融时间序列预测:CNN和Transformer的结合 📈 这篇论文提出了一种结合卷积神经网络(CNN)和Transformer的新方法,用于金融时间序列的预测。通过这种组...
🏛 林肯纪念馆:林肯纪念馆是为了纪念美国历史上最伟大的总统之一林肯而建。最后,再宣传一下我被AAAI23接收的工作:Learning to Count Isomorphisms with Graph Neural Networks。我们利用GNN来解决isomorphism counting问题。不同于传统node-centric的GNN,我们设计了一个edge-centric的GNN,并理论证明了其具有更强的表达...
同时,李镇教授团队的两篇文章论文被CCF-A类顶级会议AAAI 2023收录。AAAI全称为国际先进人工智能协会(Association for the Advancement of Artificial Intelligence),是人工智能和机器学习领域的顶级会议,据最新中国计算机学会推荐国际学术会议和...
AAAI'23 | 用于NAT的选择性知识蒸馏框架 来自:南大NLP 01 研究动机 在本文中,我们研究了一种能够高效推理的机器翻译模型NAT (Non-Autoregressive Transformer)[1]。相较于传统的Transformer,NAT能够在解码阶段并行预测,从而大幅提升模型的推理速度。此外,NAT可以使得模型在训练和测试阶段从相同的分布进行预测,从而有效...
AAAI 2023 The Economics of Data and Machine Learning Feburary 8th, 2023, 8:30am - 12:30pm At 37th AAAI Conference on Artificial Intelligence, Washington DC. Organizers: Haifeng Xu (UChicago), Shuran Zheng (CMU) and James Zou (Stanford). Motivation The past decade has witnessed significant...
Learning Adversarially Robust Sparse Networks via Weight Reparameterization, AAAI-23 - UCAS-LCH/Twin-Rep
The code repository of the paper"LaCAM: Search-Based Algorithm for Quick Multi-Agent Pathfinding"(AAAI-23). Building All you need isCMake(≥v3.16). The code is written in C++(17). First, clone this repo with submodules. git clone --recursive https://github.com/Kei18/lacam.gitcdlacam...
北京时间4月6日(周四)20:00,北京大学计算机学院博士——陈嘉毅的Talk将准时在TechBeat人工智能社区开播!他与大家分享的主题是:“自然条件下基于三维点云的手物联合位姿追踪与重建”,届时将分享大型手物交互仿真数据集和一个手物追踪重建算法。 Talk·信息