Github ONNX项目:Depth-Anything-ONNX 相比之前的工作,特别是在单目深度估计(MDE)领域,具有以下几个显著的优点: 大规模未标记数据的利用:Depth Anything 通过设计数据引擎收集和自动注释大规模的未标记数据,这在以往的研究中并不常见。这种策略显著扩大了数据集的规模和多样性,有助于减少模型在未知场景下的泛化误差;...
Intro Depth-Anythin v2 的源码开源之后,3 months 已经收获了 3k 的star数,可谓是单目深度估计的最火热的模型之一,此深度估计方法可作为一些slam 任务和 embodied AI task 的 depth input。 因此使用 OnnxRunti…
onnx文件使用此部分是用的spacewalk01对tensorRT配置中的文件,生成了onnx文件。奇怪的是,我的onnx推理时间很慢,要3s,后面应该还有优化一些代码,可能有些地方写错了。 tensorRT使用我采用了spacewalk01的链接进行tensorRT的配置。包括onnx文件生成,.engine文件的生成。随后,我直接将main.cpp文件中的engine_file_path和pa...
Depth Anything ONNX Open Neural Network Exchange (ONNX) compatible implementation of Depth Anything: Unleashing the Power of Large-Scale Unlabeled Data and Depth Anything V2. Supports PyTorch 2 Export via TorchDynamo. Monocular Depth Estimation with Depth Anything V2 Changelog: 22 June 2024: Support...
ONNX-compatible Depth Anything: Unleashing the Power of Large-Scale Unlabeled Data - Depth-Anything-ONNX/eval.py at main · a-kungwani/Depth-Anything-ONNX
性能表现:在GeForce RTX 3090显卡上,使用三种不同配置的Depth Anything模型进行推理时,模型能够表现出良好的性能,但具体推理时间可能因模型配置和输入数据大小而异。综上所述,Depth Anything是一款功能强大的深度估计模型,通过简单的步骤即可进行图像和视频的深度估计,并支持将模型导出为ONNX格式进行部署...
提供TensorRT和ONNX版本以加速推理 可在ComfyUI中使用 支持在网页中实时估计深度 提供Android版本 这种广泛的支持使得Depth Anything V2可以在各种平台和设备上运行,极大地扩展了它的应用范围。 未来展望 Depth Anything V2的发布标志着单目深度估计技术又向前迈进了一大步。随着模型的进一步优化和应用的不断拓展,我们可以...
2024-01-23: The new ControlNet based on Depth Anything is integrated into ControlNet WebUI and ComfyUI's ControlNet. 2024-01-23: Depth Anything ONNX and TensorRT versions are supported. 2024-01-22: Paper, project page, code, models, and demo (HuggingFace, OpenXLab) are released.Features...
def infer_depth_map(input_image_path, output_image_path, model_path): start_time = datetime.now() print(f"Start Time: {start_time}") # 创建ONNX Runtime会话 session = ort.InferenceSession(model_path, providers=["CPUExecutionProvider"]) # 打印模型输入输出信息(调试用途) for input...