假如数据集是纯视觉的话,或者说在实际落地中设计摄像头安装的视场角覆盖方案,这时就要充分考虑到这点,以发挥出多个摄像头交叉感知、重复感知、冗余感知的作用了。 也就是我们常说的 overlap 。 我觉得如何利用好 overlap 是很多时候设计方法的出发点,包括空间和时序。 这就好比我们人类最好是通过两个眼睛去看东西,...
纯视觉的动态标注方案是非常有挑战性的,尤其是单目的纯视觉方案,最大的挑战性在于动态物体的重建,因为运动物体是不符合传统3D多视图几何假设的,所以很难通过传统的方法进行重建。业界的一些单目(周视视角之间的overlap较小)测距的算法,主要是通过三角测距,需要很强的路面几何假设、真实的物体尺寸以及准确的相机po...
第二个问题,有人认为是将环视相机都校准到一个统一的标准坐标系,如车身坐标系,做过图像拼接的同学会知道,如果两帧fov存在大overlap图像拼接,一般我们只需要求得一个投射变换H矩阵,将其中一个图像平面透射变换到另外一个平面。而做fov很大的图像拼接,如全景拼接(最简单方法,1/2/3/4/5/6/7相机,1/2相机拼接,...
首先,我们的方案是自监督的,我们采用了多视角之间的空间约束和时序约束进行自监督。空间约束的话,其实就是不同的camera之间存在一些overlap,虽然比较小,但是也能够对这个模型的训练产生约束,提供一些尺度信息。时序上的约束,因为有SFM的基础,可以得到比较准确的相机pose,利用这个pose结合depth值,能够实现时序上的自监督约...
这个模型输入的是11V的图像,输出的是动态物体3D BBox检测结果。利用这个检测结果结合自车提供的pose信息,就可以走前面介绍的多模标注方案,将动态物体投射到统一的全局坐标系之下,进行时序跟踪和轨迹优化,最后来生成检测、跟踪、预测以及各种属性的真值。 与多模的方案相同,优化后的3D检测结果会投影到对应的图像上,和...
这个模型输入的是11V的图像,输出的是动态物体3D BBox检测结果。利用这个检测结果结合自车提供的pose信息,就可以走前面介绍的多模标注方案,将动态物体投射到统一的全局坐标系之下,进行时序跟踪和轨迹优化,最后来生成检测、跟踪、预测以及各种属性的真值。与多模的方案相同,优化后的3D检测结果会投影到对应的图像上,和2D...
接下来介绍其它静态要素的标注,驾驶场景里面的红绿灯、交通牌和锥桶。这些物体的标注方案和动态物体基本是一致的,主要区别在于两点:3D空间bounding box的获取方式以及跟踪方式。在这里我们以锥桶的方案为案例进行介绍。 我们的主要的路线:首先是有一个Lidar分割的大模型,利用Lidar的语义信息,提取锥桶的潜在3D proposal,...
Thanks for your contribution and we appreciate it a lot. The following instructions would make your pull request more healthy and more easily get feedback. If you do not understand some items, don'...
这个模型输入的是11V的图像,输出的是动态物体3D BBox检测结果。利用这个检测结果结合自车提供的pose信息,就可以走前面介绍的多模标注方案,将动态物体投射到统一的全局坐标系之下,进行时序跟踪和轨迹优化,最后来生成检测、跟踪、预测以及各种属性的真值。 与多模的方案相同,优化后的3D检测结果会投影到对应的图像上,和...
这个模型输入的是11V的图像,输出的是动态物体3D BBox检测结果。利用这个检测结果结合自车提供的pose信息,就可以走前面介绍的多模标注方案,将动态物体投射到统一的全局坐标系之下,进行时序跟踪和轨迹优化,最后来生成检测、跟踪、预测以及各种属性的真值。 与多模的方案相同,优化后的3D检测结果会投影到对应的图像上,和...