PP-OCRv3是百度开源的超轻量级场景文本检测识别模型库,其中超轻量的场景中文识别模型SVTR_LCNet使用SVTR作为基础结构,进行精度优化和轻量化,详见PP-OCRv3介绍。 为了保证速度,SVTR_LCNet将SVTR模型的Local Blocks替换为LCNet,使用两层Global Blocks。在中文场景中,经过多次优化,SVTR_LCNet的最终精度为79.4%。具体的...
Finally, the cropped image is input into the SVTR-LCNet model to decode the corresponding text information. The simulation results show that the YOLO-SVTR algorithm effectively completes the integrated detection and recognition of Morse codes in the simulated short-wave band, and has good ...
PP-OCRV3/4中将局部特征提取块使用了PP-LCNetV3的方法,虽然修改后的精度相比原生的SVTR相比低一点,但是速度有巨大提升,对于各种场景都具有非常高的使用价值。
中文识别算法模型精度 PP-OCRv3 SVTR_LCNet 79.4% SVTR-CH SVTR-Tiny 82.5% 以上的预处理设置针对该项目进行优化,将Resize的H设为32,W设为320,同时采用Padding的预处理方式。 下面介绍一下短文本识别和长文本识别时的如果进行预处理优化。 短文本识别优化 文本的字符个数不超过25个、大多在10个字符以内,平均...