首先参照下面的命令,下载st-gcn算法的训练代码,配置环境。 git clone https://github.com/yysijie/st-gcn.git cd st-gcn pip install -r requirements.txt cd torchlight python setup.py install cd .. 二、准备行为数据 训练之前,需要根据kinetics-skeleton数据集的格式,提取自建数据集中目标的行为数据。下图...
你可以参考常用的行为识别数据集(如Kinetics-skeleton、NTU RGB+D等)的格式来整理你的数据。 三、数据转换 ST-GCN的训练代码提供了数据转换的脚本(如kinetics_gendata.py),用于将原始数据集转换为模型训练所需的格式(如npy和pkl文件)。然而,由于你的数据集是自建的,因此你需要修改这些脚本以适配你的数据集格式。
提取数据后,将其转换为st-gcn训练所需的npy和pkl文件,这可以通过自带的tools/kinetics_gendata.py脚本完成,但需根据您的自建数据集进行相应参数修改,如关键点数量、帧数限制等。接下来,在net/utils/graph.py文件的get_edge函数中,可能需要增加自定义的'my_pose' Layout,针对您的关键点个数进行调...
import osimport argparseimport jsonimport shutilimport skvideoskvideo.setFFmpegPath('D:/ffmpeg/bin')import skvideo.io# st_gcn项目下的文件import st_gcn_toolsimport st_gcn_tools.utils as utilslabel_name, label_no = 'running', 0class PreProcess():"""利用openpose提取自建数据集的骨骼点数据"""d...
利用openpose提取自建数据集骨骼点训练st-gcn,复现st-gcn 0、下载st-gcn 参考: gitbub上fork后导入到gitee快些: st-gcn下载 也可以直接下载zip文件后解压 1、处理准备自己数据集 数据集要求将相同类别的视频放到同一文件夹,我这里用到一个较老的数据集:training_lib_KTH.zip,六种行为放到六个不同文件夹。