跟AS-GCN相同,这篇论文也是对ST-GCN的改进,同样是2019年发表在CVPR上面的文章。论文提出一个双流自适应图卷积网络(2s-AGCN)。从名字可以看出,文章主要创新点有两个,一个是双流网络,另外一个是自适应性。 首先,老一套,先回顾一下ST-GCN的结构,这部分我在之前的文章写了,这里打一下广告,有兴趣可以看一下: 我...
跟AS-GCN相同,这篇论文也是对ST-GCN的改进,同样是2019年发表在CVPR上面的文章。论文提出一个双流自适应图卷积网络(2s-AGCN)。从名字可以看出,文章主要创新点有两个,一个是双流网络,另外一个是自适应性。 首先,老一套,先回顾一下ST-GCN的结构,这部分我在之前的文章写了,这里打一下广告,有兴趣可以看一下: 我...
若要更好地理解此篇文章,请参考其改进的前身: 【读前请读】:《论文超详细精读|六千字:ST-GCN》 以及,同样以ST-GCN为基础改进的: 【读后再读】:《论文超详细精读|八千字:AS-GCN》 总览 首先,看完标题,摘要和结论,我了解到了以下信息: 提出了一种新的双流自适应图卷积网络(2S-AGCN)用于基于骨架的动作识别。
通过此次论文复现赛,小组成员更加充分的理解了2s-AGCN的模型架构,从数据处理,到模型建立再到最后的模型训练以及文档的编写,我们得到了充分的训练。在比赛过程中,我们也更加深入的了解了paddle的框架以及使用,paddle的易用性和可拓展性与torch相比有过之而无不及,api文档更加通俗易懂,上手更快,不愧是国内顶尖的深度学...