AI代码解释 #===mmdet/models/detectors/voxelnet.py/VoxelNet===defforward_train(self,points,img_metas,gt_bboxes_3d,gt_labels_3d,gt_bboxes_ignore=None):# 先进行点云的特征提取 x=self.extract_feat(points,img_metas)# 主要是调用 bbox_head 内部的 forward_train 方法,得到 head 输出 outs=self...
extract_feat(points, img_metas) # 主要是调用 bbox_head 内部的 forward_train 方法,得到 head 输出 outs = self.bbox_head(x) loss_inputs = outs + (gt_bboxes_3d, gt_labels_3d, img_metas) # 将 head 部分的输出和数据的 label 送入计算 loss losses = self.bbox_head.loss( *loss_...
data,optimizer):# 调用本类自身的 forward 方法losses=self(**data)# 解析 lossloss,log_vars=self._parse_losses(losses)# 返回字典对象outputs=dict(loss=loss,log_vars=log_vars,num_samples=len(data['img_metas']))returnoutputsdefforward(self,img,img_metas,return...
extract_feat(points, img_metas) # 主要是调用 bbox_head 内部的 forward_train 方法,得到 head 输出 outs = self.bbox_head(x) loss_inputs = outs + (gt_bboxes_3d, gt_labels_3d, img_metas) #将 head 部分的输出和数据的 label 送入计算 loss losses = self.bbox_head.loss( *loss_input...
(points, img_metas)# 主要是调用 bbox_head 内部的 forward_train 方法,得到 head 输出outs = self.bbox_head(x)loss_inputs = outs + (gt_bboxes_3d, gt_labels_3d, img_metas)# 将 head 部分的输出和数据的 label 送入计算 losslosses = self.bbox_head.loss(*loss_inputs, gt_bboxes_...
(loss=loss, log_vars=log_vars, num_samples=len(data['img_metas']))return outputsdef forward(self, img, img_metas, return_loss=True, **kwargs):if return_loss:# 训练模式return self.forward_train(img, img_metas, **kwargs)else:# 测试模式return self.forward_test(img, img_metas, **...
定义在formating.py中,这一步就是把img、bboxes、labels转换为tensor,再转换为DataContainer。 8、Collect 定义在formating.py中,把一些标注信息插入到results[‘img_metas’] 二、代码中pipeline调用过程 然后,介绍pipeline处理数据过程中代码的一些细节问题: ...
img_metas, gt_bboxes_3d, gt_labels_3d, gt_bboxes_ignore=None): # 先进行点云的特征提取 x = self.extract_feat(points, img_metas) # 主要是调用 bbox_head 内部的 forward_train 方法,得到 head 输出 outs = self.bbox_head(x) loss_inputs = outs + (gt_bboxes_3d, gt_...
img_metas, gt_bboxes_ignore=gt_bboxes_ignore)returndict( loss_rpn_cls=losses['loss_cls'], loss_rpn_bbox=losses['loss_bbox'])def_get_bboxes_single(self, cls_scores, bbox_preds, mlvl_anchors, img_shape, scale_factor, cfg, ...
>>> img_metas = [{'img_shape': (scale, scale)} ... for _ in range(n_img)] >>> # Create rois in the expected format >>> roi_boxes = random_boxes(n_roi, scale=scale, rng=rng) >>> img_ids = torch.randint(0, n_img, (n_roi,)) ...