python main.py recognition -c config/st_gcn/ntu-xview/test.yaml For cross-subject evaluation in NTU RGB+D, run python main.py recognition -c config/st_gcn/ntu-xsub/test.yaml To speed up evaluation by multi-gpu inference or modify batch size for reducing the memory cost, set --test...
Spatial Temporal Graph Convolutional Networks (ST-GCN) for Skeleton-Based Action Recognition in PyTorch - st-gcn/main.py at master · liangliu123/st-gcn
之前我用过两个链接都无法实现:https://github.com/yysijie/st-gcn(这个网上指导帖子比较多,但是我就差最后一步没有复现出来) https://github.com/open-mmlab/mmskeleton(这个网上指导帖子比较少,我自己捣鼓了几次,果断放弃) 当然你们也可以试一下他们的方法,也许是我太菜了,你们可以复现出来。 首先是配置openp...
一、环境配置与代码下载 首先,你需要下载ST-GCN的官方实现代码,并配置好相应的环境。可以通过以下命令克隆ST-GCN的GitHub仓库,并安装必要的依赖项: git clone https://github.com/yysijie/st-gcn.git cd st-gcn pip install -r requirements.txt cd torchlight python setup.py install cd .. 二、准备行为数...
首先参照下面的命令,下载st-gcn算法的训练代码,配置环境。 git clone https://github.com/yysijie/st-gcn.git cd st-gcn pip install -r requirements.txt cd torchlight python setup.py install cd .. 二、准备行为数据 训练之前,需要根据kinetics-skeleton数据集的格式,提取自建数据集中目标的行为数据。下图...
本项目首次将基于人体骨架关键点的人类动作识别算法 ST-GCN,即时空图卷积网络模型,运用于花样滑冰动作识别,可以实时地识别视频中花样滑冰运动员的技术动作并添加标注予以显示,帮助更多入门级别的观众了解花样滑冰,使其能更好的比较和体会不同的花样滑冰动作,对花样滑冰运动的进一步推广有积极的作用。 欢迎报名直播课加入...
Github 代码:https://github.com/yysijie/st-gcn? 一、简介 近日,香港中大-商汤科技联合实验室的最新 AAAI 会议论文「Spatial Temporal Graph Convolution Networks for Skeleton Based Action Recognition」提出了一种新的 ST-GCN,即时空图卷积网络模型,用于解决基于人体骨架关键点的人类动作识别问题。该方法除了思路...
此外,ST-GCN可以捕捉运动信息动态骨架序列是互补的RGB模式。基于骨架的组合模型基于框架的模型进一步提高了性能在动作识别。ST-GCN模型的灵活性为未来的工作开辟了许多可能的方向。这里是程序员观察!欢迎多多关注和支持!文章传送门:https://arxiv.org/pdf/1801.07455.pdfhttps://github.com/yysijie/st-gcn.
要完成通过ST-GCN识别动作类别,首先要将原始视频数据通过openpose转化为骨骼点数据。完整流程为下图所示步骤。 SKELETON-BASED ACTION RECOGNITION MODELS Ref: https://github.com/open-mmlab/mmaction2/tree/master/configs/skeleton 这里主推了三个模型:2s-agcn,posec3d,stgcn ...
简介:ST-GCN 自建kinetics数据集 目前我遇到过的,基于骨骼点的动作识别三种办法: 根据关节角度 跟踪算法 输入动作识别网络 该部分内容介绍的是自建动作识别网络数据集,达到自己想要的效果: 准备项目 准备视频 做视频水平翻转,增加训练集的数量(非必须) 提取骨骼点和置信度(一个视频一个生成json格式文件) ...