本文作者提出了一种基于Transformer Encoder的简单结构,如果只有这个模型,想中NeurIPS还是很难的,本文另一大贡献是开源了DyGLib代码库,重新实现了N多的模型,为后续的研究提供了很大便利。 DyGFormer 什么是动态图,形式化定义G=(u1,v1,t1),(u2,v2,t2),...,0≤t1≤t2≤...,其中ui,vi是节点,ti是时间戳,每...
DygFormer 背景 本文开源代码地址: https://github.com/yule-BUAA/DyGLibgithub.com/yule-BUAA/DyGLib Towards Better Dynamic Graph Learning: New Architecture and Unified Library是北航研究人员发表在 NeurIPS 2023的一项关于动态图链接预测(dynamic graph link prediction)的工作,首先作者提出了一个基于Transforme...