optimizer_config = dict(grad_clip=dict(max_norm=35, norm_type=2)) # learning policy lr_config = dict( policy='step', warmup='linear', warmup_iters=500,warmup_ratio=1.0 / 3, step=[8, 11]) checkpoint_config = dict(interval=1) # yapf:disable log_config = dict( interval=50, hoo...
# checkpoints hook配置文件,每隔多少epoch保存一次pth文件 checkpoint_config = dict(interval=1) # logger hook配置文件,每隔多少epoch保存一次logger log_config = dict( interval=50, hooks=[ dict(type='TextLoggerHook'), # dict(type='TensorboardLoggerHook') ]) # 自定义hook配置 custom_hooks = [dict...
checkpoint_config = dict( # Checkpoint hook 的配置文件。执行时请参考 https://github.com/open-mmlab/mmcv/blob/master/mmcv/runner/hooks/checkpoint.py。 interval=1) # 保存的间隔是 1。 log_config = dict( # register logger hook 的配置文件。 interval=50, # 打印日志的间隔 hooks=[ # dict(type...
checkpoint_config = dict(interval=5) # 每5个epoch保存一次权重# yapf:disablelog_config = dict(interval=50, # 每500个迭代就打印一次训练信息hooks=[dict(type='TextLoggerHook'),# dict(type='TensorboardLoggerHook')])# yapf:enablecustom_hooks = [dict(type='NumClassCheckHook')]dist_params = di...
log_config是很多logger hooks的包装器并且统一设置保存频率(interval同上),用于训练记录日志的保存,目前MMCV支持了三种WandbLoggerHook、MlflowLoggerHook和TensorboardLoggerHook,默认MMDetection设置的日志记录配置如下,只以文本的方式记录训练日志,建议打开Tensorboard记录。
checkpoint_config = dict(interval=1) # 模型权重的保存的间隔,建议调大一点,否则会保存大量模型权重,占用存储空间,例如interval=8。模型会默认保存最后一次训练的权重 log_config = dict(interval=50, hooks=[dict(type='TextLoggerHook')]) # 日志的输出间隔,建议调小一点,例如interval=4 需要注意的是,修改...
lr_config = dict(policy='step', step=[3]) # actual epoch = 3 * 3 = 9 checkpoint_config = dict(interval=1) # yapf:disable log_config = dict( interval=100, hooks=[ dict(type='TextLoggerHook'), # dict(type='TensorboardLoggerHook') ...
optimizer_config,cfg.checkpoint_config,cfg.log_config,cfg.get('momentum_config',None))# 最后开始...
python tools/analyze_logs.py plot_curve log1.json log2.json --keys bbox_mAP --legend run1 run2你还可以计算平均训练速度。python tools/analyze_logs.py cal_train_time ${CONFIG_FILE} [--include-outliers]预期输出将如下所示。---Analyze train time of work_dirs/some_exp/20190611_192040.log...
checkpoint_config = dict(interval=1)# 模型权重的保存的间隔,建议调⼤⼀点,否则会保存⼤量模型权重,占⽤存储空间,例如interval=8。模型会默认保存最后⼀次训练的权重 log_config = dict(interval=50, hooks=[dict(type='TextLoggerHook')])# ⽇志的输出间隔,建议调⼩⼀点,例如interval=4 ...