近日,香港中大-商汤科技联合实验室的最新 AAAI 会议论文「Spatial Temporal Graph Convolution Networks for Skeleton Based Action Recognition」提出了一种新的 ST-GCN,即时空图卷积网络模型,用于解决基于人体骨架关键点的人类动作识别问题。该方法除了思路新颖之外,在标准的动作识别数据集上也取得了较大的性能提升。...
关于图卷积神经网络,可参阅文章:SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS 放弃标注修改 提出通过将图神经网络扩展到时空图模型(称为时空图卷积网络(ST-GCN))来设计用于动作识别的骨架序列的通用表示。如图1所示,该模型建立在一系列骨架图之上,其中每个节点对应于人体的一个关节。有两种类型的边,...
ST-GCN是一种新的基于骨架的模型动作识别网络模型,建立了一组空间在骨架序列上的时间图卷积。在两个具有挑战性的大规模数据集,提出的ST-GCN优于之前最先进的骨架模型。此外,ST-GCN可以捕捉运动信息动态骨架序列是互补的RGB模式。基于骨架的组合模型基于框架的模型进一步提高了性能在动作识别。ST-GCN模型的灵活性为...
近日,港中大-商汤科技联合实验室的最新 AAAI 会议论文「Spatial Temporal Graph Convolutional Networks for Skeleton Based Action Recognition」提出了一种新的 ST-GCN,即时空图卷积网络模型,用于解决基于人体骨架关键点的人类动作识别问题。该方法除了思路新颖之外,在标准的动作识别数据集上也取得了较大的性能提升。本文...
简介本仓库包含论文《用于基于骨架的动作识别的空间时间图卷积网络》的相关代码、数据集和模型。 ST-GCN 动作识别演示我们的基于骨架的动作识别演示展示了ST-GCN如何从人体骨架中提取局部模式和关联性。下图显示了我们ST-GCN最后一层中每个节点的神经响应幅度。
建立ST-GCN网络模型,其中in_channels (int)表示输入序列数据中的通道数; out_channels (int)表示卷积产生的通道数; kernel_size (tuple)为时态卷积核和图卷积核的大小; stride (int,可选)为时间卷积的步幅。默认值:1; dropout (int,可选)为最终输出的辍学率。默认值:0; ...
解读:基于动态骨骼的动作识别方法ST-GCN(时空图卷积网络模型) 本文为 AAAI 2018 录用论文「Spatial Temporal Graph Convolutional Networks for Skeleton Based Action Recognition」,香港中文大学提出一种时空图卷积网络,并利用它们进行人类行为识别。这种算法基于人类关节位置的时间序列表示而对动态骨骼建模,并将图卷积扩展...
近日,香港中大-商汤科技联合实验室的最新 AAAI 会议论文「Spatial Temporal Graph Convolution Networks for Skeleton Based Action Recognition」提出了一种新的 ST-GCN,即时空图卷积网络模型,用于解决基于人体骨架关键点的人类动作识别问题。该方法除了思路新颖之外,在标准的动作识别数据集上也取得了较大的性能提升。本文...
导语:港中文 AAAI 会议论文提出了一种新的 ST-GCN,即时空图卷积网络模型,用于解决基于人体骨架关键点的人类动作识别问题。 雷锋网 AI 科技评论按:第 32 届 AAAI 大会(AAAI 2018)日前在美国新奥尔良进行,于当地时间 2 月 2 日至 7 日为人工智能研究者们带来一场精彩的学术盛宴。AAAI 2018 今年共收到论文投稿...
近日,香港中大-商汤科技联合实验室的最新 AAAI 会议论文「Spatial Temporal Graph Convolutional Networks for Skeleton Based Action Recognition」提出了一种新的 ST-GCN,即时空图卷积网络模型,用于解决基于人体骨架关键点的人类动作识别问题。该方法除了思路新颖之外,在标准的动作识别数据集上也取得了较大的性能提升。本...