24年1月论文“Depth Anything: Unleashing the Power of Large-Scale Unlabeled Data“,来自香港大学、字节、浙江实验室和浙江大学。 这项工作提出了Depth Anything,这是一种用于鲁棒单目深度估计的解决方案。目…
值得注意的是,在最广泛应用的MDE基准KITTI和NYUv2上,虽然MiDaS v3.1使用了相应的训练图像(不再是真正的零样本评估),但我们的Depth Anything即便未使用任何KITTI或NYUv2图像进行训练,表现依旧明显优于它,例如在KITTI上的AbsRel指标为0.127对比0.076,δ1指标为0.850对比0.947。 表3. 使用我们预训练的MDE编码器在NYUv2...
24年1月论文“Depth Anything: Unleashing the Power of Large-Scale Unlabeled Data“,来自香港大学、字节、浙江实验室和浙江大学。 这项工作提出了Depth Anything,这是一种用于鲁棒单目深度估计的解决方案。目标是建立一个简单而强大的基础模型,在任何情况下处理任何图像。为此,设计一个数据引擎来收集和自动注释大规模...
本文提出了Depth Anything1,一个非常实用的单目深度估计解决方案。在不追求创新技术模块的前提下,我们旨在构建一个简单而强大的基础模型,能够应对任何图像和任何环境。为此,我们通过设计一个数据引擎来收集并自动标注大规模未标注数据(约62M),显著扩大了数据覆盖范围,从而能够减少泛化误差。我们研究了两种简单但有效的策略...