我在 iPhone 应用程序中使用 Tesseract OCR 引擎从账单发票照片中读取特定的数字字段。使用大量照片预处理(自适应阈值处理、工件清理等),结果最终相当准确,但仍有一些情况我想改进。
如果用户在弱光条件下拍摄照片并且图片中有一些噪点或伪影,OCR 引擎会将这些伪影解释为额外的数字。在某些后面的情况下,它可以读取例如“32,15”欧元的数字量为“5432,15”欧元,这对最终用户对产品的信心一点也不好。
我假设,如果每个读取的字符都存在内部 OCR 引擎读取错误,那么在我之前示例的“54”位上它会更高,因为它们在小噪声像素上被识别,并且如果我可以访问这个读数错误值我将能够轻松丢弃错误的数字。
您是否知道任何方法来获取从 tesseract OCR 引擎返回的每个单独字符的读取误差幅度(或任何“准确度因子”值)?