bash/content/st-gcn-master/tools/get_models.sh# 如果这个不管用就去上面我给的老哥的文章中找到模型,下载再上传到对应的位置(在st-gcn-master下的models里)。 7、运行demo !python main.py demo--video/content/st-gcn-master/resource/media/cuk2.mp4--openpose/content/openpose/build 这里我报了一个yaml...
同时,作者还引入了残差结构(一个CNN+BN)计算获得Res,与GCN的输出按位相加,实现空间维度信息的聚合。 利用TCN网络(实际上是一种普通的CNN,在时间维度的kernel size>1)实现时间维度信息的聚合。 上述ST-GCN模块的代码实现如下: defforward(self,x,A): res=self.residual(x) x,A=self.gcn(x,A) x=self.tcn...
我们把它下载到本地,然后打开。 复现成功!!! 也可以换一个视频测试一下,比如执行 !python main.py demo --video /content/st-gcn/resource/media/skateboarding.mp4 --openpose /content/openpose/build 大功告成。
复现st-gcn(win10+openpose1.5.1+VS2017+cuda10+cudnn7.6.4),程序员大本营,技术文章内容聚合第一站。
利用openpose提取自建数据集骨骼点训练st-gcn,复现st-gcn 0、下载st-gcn 参考: gitbub上fork后导入到gitee快些: st-gcn下载 也可以直接下载zip文件后解压 1、处理准备自己数据集 数据集要求将相同类别的视频放到同一文件夹,我这里用到一个较老的数据集:training_lib_KTH.zip,六种行为放到六个不同文件夹。