mm.export_onnx(simplify=True)# Exported onnx: convnext_tiny.onnx# Running onnxsim.simplify...# Exported simplified onnx: convnext_tiny.onnx# Onnx run testtt = imagenet.eval_func.ONNXModelInterf('convnext_tiny.onnx') print(mm.decode_predictions(tt(mm.preprocess_input(test_images.cat(...
我们进一步提出了一种细粒度的联合搜索策略,该策略可以通过同时优化延迟和参数数来找到有效的体系结构。 在ImageNet-1K上,与MobileNetv2和MobileNetv2×1.4相比,所提出的模型效率Formerv2在相同的时延和参数下的TOP-1精度提高了约4%。 我们证明了适当设计和优化的视觉变换器可以在MobileNet级别的大小和速度下实现高性能。