mmengine - INFO - Epoch(test) [100/498] eta: 0:02:28 time: 0.2499 data_time: 0.0011 memory: 342 03/25 14:58:51 - mmengine - INFO - Epoch(test) [200/498] eta: 0:01:32 time: 0.2535 data_time: 0.0011 memory: 342 03
38.5 task/s, elapsed: 280s, ETA: 0sEvaluateing data/VOCdevkit/VOC2007/ImageSets/Main/test.txt with 4952 images now---iou_thr: 0.5---+---+---+---+---+--
time.sleep(2) # Prevent possible deadlock during epoch transition for i, data_batch in enumerate(self.data_loader): self.data_batch = data_batch self._inner_iter = i self.call_hook('before_train_iter') self.run_iter(data_batch, train_mode=True, **kwargs) self.call_hook('after_trai...
ann_file=data_root + 'annotations/instances_val2014.json', img_prefix=data_root + 'val2014/', pipeline=test_pipeline), test=dict( type=dataset_type, ann_file=data_root + 'annotations/instances_val2014.json', img_prefix=data_root + 'val2014/', pipeline=test_pipeline)) # optimizer optim...
# runtime文件为整体训练超参设置 models中对应文件修改num_classes变量 (2.x版本中num_classes不需要+1) datasets中对应文件修改dataset_type、data_root、img_scale、ann_file、img_prefix变量。 schedules中新建schedule_xxx_voc.py设置对应优化器 新建xxx_voc_runtime.py文件设置整体超参 ...
runtime 可配置 checkpoint 间隔多少存一个。默认 1 epoch 1 个,空间不够用😶 配置可对照 __base__ 的内容覆盖修改,更多说明见官方文档。 训练模型 # single-gpu training python tools/train.py \ configs/voc_cat/faster_rcnn_r50_fpn_1x_voc_cat.py \ --work-dir _train_voc_cat # multi-gpu tr...
自己的 VOC 数据制作完毕之后,从宿主机(Ubuntu)复制到 /mmdetection/data/ 目录下: $ docker cp VOCdevkit mm_prj:/mmdetection/data/ 4. 修改 class_names.py 文件 打开/mmdetection/mmdet/core/evaluation/class_names.py 文件,修改 voc_classes 为将要训练的数据集的类别名称。如果不改的话,最后测试的结果的...
然后,在mmdetection目录下新建data文件夹,并将自定义的数据集放入新创建的data文件夹中。接下来,需要修改配置文件以适应自定义数据集。这包括修改数据配置文件中的类别定义以及模型配置文件中的模型参数。具体而言,修改mmdet/datasets/coco.py文件,确保CLASSES内容对应自定义数据集的类别,并且与annotations...
[ '../_base_/models/faster_rcnn_r50_fpn.py', '../_base_/datasets/coco_detection.py', '../_base_/default_runtime.py', '../_base_/schedules/schedule_1x.py' ] # 数据集相关设置 dataset_type = 'COCODataset' data_root = 'data/coco_my/' # 修改为你的数据集路径 img_norm_cfg ...
data pipeline model iteration pipeline data pipeline 依然是非常传统的使用,我们使用Dataset和DataLoader来使用多线程进行数据的加载。Dataset将会返回一个与模型前向方法相对应的数据字典。因为在目标检测中数据可能不是相同的尺寸(例如图形尺寸,bbox的尺寸等),我们引入了一个新的DataContainer类型来帮助收集与分类这些不...