近日,香港中大-商汤科技联合实验室的最新 AAAI 会议论文「Spatial Temporal Graph Convolution Networks for Skeleton Based Action Recognition」提出了一种新的 ST-GCN,即时空图卷积网络模型,用于解决基于人体骨架关键点的人类动作识别问题。该方法除了思路新颖之外,在标准的动作识别数据集上也取得了较大的性能提升。...
ST-GCN网络 骨骼点序列数据是一种天然的时空图结构数据,具体分析可见[5,6],针对于这类型的数据,可以用时空图卷积进行建模,如ST-GCN[4]模型就是一个很好的代表。简单来说,ST-GCN是在空间域上采用图卷积的方式建模,时间域上用一维卷积进行 论文笔记--Disentangling and Unifying Graph Convolutions for Skeleton-...
准备:一个训练好的ST-GCN模型权重"xxx.pth",模型架构的代码,用于校准的测试集和数据加载器代码,PTQ需要数据去校准模型的激活值,数据最好是后续可能实际使用的数据,不需要特别多,也不需要标签 第一步,加载训练好的模型,指定量化配置: importtorchimportglfromprotonet_qaimportProtoNet_qaasProtoNetfromtrain_qaimportin...
Yan, Sijie, Yuanjun Xiong, and Dahua Lin. "Spatial temporal graph convolutional networks for skeleton-based action recognition."Proceedings of the AAAI conference on artificial intelligence. Vol. 32. No. 1. 2018. 该模型创建了ST-GCN,通过对人体关键点(骨骼点)使用ST-GCN实现目标人物的行为识别。手...
ST-GCN是一种新的基于骨架的模型动作识别网络模型,建立了一组空间在骨架序列上的时间图卷积。在两个具有挑战性的大规模数据集,提出的ST-GCN优于之前最先进的骨架模型。此外,ST-GCN可以捕捉运动信息动态骨架序列是互补的RGB模式。基于骨架的组合模型基于框架的模型进一步提高了性能在动作识别。ST-GCN模型的灵活性为...
建立ST-GCN网络模型,其中in_channels (int)表示输入序列数据中的通道数; out_channels (int)表示卷积产生的通道数; kernel_size (tuple)为时态卷积核和图卷积核的大小; stride (int,可选)为时间卷积的步幅。默认值:1; dropout (int,可选)为最终输出的辍学率。默认值:0; ...
解读:基于动态骨骼的动作识别方法ST-GCN(时空图卷积网络模型) 本文为 AAAI 2018 录用论文「Spatial Temporal Graph Convolutional Networks for Skeleton Based Action Recognition」,香港中文大学提出一种时空图卷积网络,并利用它们进行人类行为识别。这种算法基于人类关节位置的时间序列表示而对动态骨骼建模,并将图卷积扩展...
ST-GCN(Spatial Temporal Graph Convolutional Networks)作为一种基于图卷积的行为识别模型,因其能够有效地捕捉人体关节间的空间和时间依赖关系而备受关注。本文将详细介绍如何使用ST-GCN训练自建的行为识别数据集。 一、环境配置与代码下载 首先,你需要下载ST-GCN的官方实现代码,并配置好相应的环境。可以通过以下命令克隆...
这种平均操作在骨架动作识别会遇到一个重要问题,即:它无法建模关键点之间相对位置变化的情况,或所谓的「微分性质」(differential properties)。因此基于原始 GCN 的模型,识别性能并不会很理想。 针对这个问题,我们认为,要真正增强的模型的性能,必须跳出原始 GCN 的「平均思想」。为了解决这个问题,我们将理解了图像上的...
可以看到,使用在花样滑冰数据集上训练好的ST-GCN模型对/home/aistudio/work/dataset/example_skeleton_.npy进行预测,输出的top1类别id为26,置信度为0.8217134475708008。 In [ ] !python3.7 tools/predict.py --input_file /home/aistudio/work/dataset/example_skeleton_.npy \ --config configs/recognition/stgc...