erasing: 0.4- 在分类训练中随机擦除的概率,范围为 0-0.9,用于模拟部分遮挡。 crop_fraction: 1.0- 图像裁剪比例,用于分类,范围为 0.1-1,1.0 表示不裁剪。 在检测交通标志的场景中,fliplr左右翻转增强可能是不合适的,因为某些标志翻转后意义就完全变了,这时就需要结合实际业务场景,避免因不合适的数据增强而引起模...
C3K2模块是YOLO11在backbone部分引入的一种更快速的CSP(Cross Stage Partial Networks)模块变体。CSP模块是一种网络结构设计,旨在通过跨阶段的部分连接来增强特征学习能力,同时减少计算量。C3K2在C3模块的基础上进行了优化,通过指定参数为2,实现了两个C3k(可能是指具有某种特定配置的C3模块变体)的串联,从而进一步提升了...
save_conf=False,save_crop=False,show_labels=True,show_conf=True,show_boxes=True,line_width=None,format=torchscript,keras=False,optimize=False,int8=False,dynamic=False,simplify=False,opset=None,workspace=4,nms=False,lr0=0.01,lrf=0.01,momentum=0.937,weight_decay=0.0005,warmup_epochs=3.0,warmup...
1,2,3 或 device=cpuworkers:8# (int) 数据加载的工作线程数(如果是 DDP,则每个 RANK)project:# (str, optional可选) 项目名称name:# (str, optional) 实验名称,结果保存到 '项目/名称' 目录exist_ok:False# (bool) 是否覆盖现有实验pretrained:True# (bool | str) 是否使用预训练模型...
crop_fractionfloat1.00.1 - 1.0将分类图像裁剪为其大小的一小部分,以突出中心特征并适应对象比例,减少背景干扰。 这些设置可根据数据集和手头任务的具体要求进行调整。试验不同的值有助于找到最佳的增强策略,从而获得最佳的模型性能。 信息 有关增强训练行动的更多信息,请参阅参考资料部分。
crop_fraction float 1.0 0.1 - 1.0 Crops the classification image to a fraction of its size to emphasize central features and adapt to object scales, reducing background distractions. Adjust these settings to meet dataset and task requirements. Experimenting with different values can help find the ...
fraction 1.0 训练集使用的数据比例 - profile False 训练期间是否 分析 ONNX 和 TensorRT 速度 - freeze None 在训练过程中 冻结前 n 层,或冻结层索引列表 在迁移学习场景中冻结特定层 lr0 0.01 初始学习率 根据模型和数据集大小调整 lrf 0.01 最终学习率 根据训练策略调整 ...
None, name=None, exist_ok=False, pretrained=True, optimizer=auto, verbose=True, seed=0, deterministic=True, single_cls=False, rect=False, cos_lr=False, close_mosaic=10, resume=False, amp=True, fraction=1.0, profile=False, overlap_mask=True, mask_ratio=4, dropout=0.0, val=True, split...
pt, optimizer=auto, verbose= True, seed=0, deterministic=True, single_cls=False, rect=False, cos_lr=False, close_mosaic=10, resume=False, amp=True, fraction=1.0, profile=False, freeze=None, overlap_mask=True, mask_ratio=4, dropout=0.0, val=True, split=val, save _json=False, save_...
] -= crop_box[:2] boxes[:, 2:] -= crop_box[:2] mask = np.logical_and(mask, (boxes[:, :2] < boxes[:, 2:]).all(axis=1)) boxes = boxes * np.expand_dims(mask.astype('float32'), axis=1) labels = labels * mask.astype('float32'...