对图像中的手写和打印文本进行分类、分割和提取

问题描述 投票:0回答:1

该项目的目标是首先对图像中的手写和打印文本进行分割(或绘制边界框)和分类,然后从图像中提取手写和打印文本。打印文本可以很容易地提取,但问题是很难准确地提取手写文本。上图是将用于推理的示例图像。我使用 pytesseract 库来提取文本,但在手写文本上失败。 enter image description here 示例输出在这里给出。(黄色->手写,绿色->打印)但这里是在每个单词上绘制的 BB。是否可以在整行手写或打印文本上分割或绘制 BB?如果没有的话,逐字分词或者BB也可以。

因此,主要任务是使用模型对手写文本和打印文本进行分类,然后使用 OCR 模型对手写文本进行准确度较高的分类。这些只是我根据我的知识所做的假设。如果还有其他最好的方法,请指导我。

image-processing computer-vision ocr object-detection transformer-model
1个回答
0
投票

使用 OCR 处理打印文本并寻求专门的手写文本方法,您的方向是正确的。这是解决此问题的结构化方法:

  1. 文本分类和切分 A。文字分类:

训练分类器:使用深度学习模型将文本区域分类为手写或打印。卷积神经网络 (CNN) 或更高级的模型(例如 ResNet 或 EfficientNet)在这里可能很有效。 预训练模型:如果从头开始训练不可行,请探索用于文本分类的预训练模型。 b.文本分割:

边界框(BB)检测:使用对象检测模型来检测线条或单词周围的边界框。 YOLO、Faster R-CNN 或 SSD 等模型可以适用于文本检测。 线条检测:对于分割文本行,霍夫变换可以帮助检测线条。或者,使用 U-Net 或 Mask R-CNN 等分割网络来分割文本区域。 2. 手写文本提取 A。专业 OCR 模型:

手写识别模型:使用专门针对手写识别训练的模型,例如 Google 的 Cloud Vision、Microsoft Azure 的 Read API 或带有专门训练数据的 Tesseract。 深度学习模型:考虑像 CRNN(卷积循环神经网络)这样的模型,它结合了用于特征提取的 CNN 和用于序列预测的 RNN。 b.数据增强:

提高准确性:旋转、缩放和噪声添加等数据增强技术可以帮助提高模型对手写变化的鲁棒性。 3. 分类与提取相结合 A。管道设计:

分类阶段:首先,使用分类模型确定某个区域是否包含手写文本或打印文本。 分割阶段:应用边界框检测来分割文本区域。 提取阶段:根据分类结果使用适当的OCR模型从每个分割区域中提取文本。 b.后处理:

文本后处理:实施后处理步骤来清理和格式化提取的文本。拼写检查和语法纠正等技术可能很有用。 工作流程示例: 预处理图像:

根据需要调整图像大小并标准化图像。 文字分类:

使用 CNN 将每个文本区域分类为手写或打印。 边界框检测:

应用对象检测模型在检测到的线条或单词周围绘制边界框。 文本提取:

对于打印文本,请使用传统的 OCR,例如 Tesseract。 对于手写文本,请使用专门的手写识别模型。 后处理:

对提取的文本进行更正和格式化。 工具和库: 对象检测:YOLO、Faster R-CNN、SSD(TensorFlow 对象检测 API) OCR:Tesseract、Google Cloud Vision API、Microsoft Azure OCR 手写识别:CRNN、用于手写的 Google Cloud Vision 分割:U-Net、Mask R-CNN 示例代码片段:

  1. 文本分类示例:

蟒蛇 复制代码 将张量流导入为 tf 从tensorflow.keras.models导入load_model

model = load_model('text_classifier.h5')

定义分类文本(图像): # 预处理图像 已处理图像 = 预处理图像(图像) 预测 = model.predict(processed_image) 如果预测 > 0.5,则返回“手写”,否则返回“打印” 2. 物体检测示例:

蟒蛇 复制代码 导入CV2

def detector_text_boxes(图像): # 加载你的物体检测模型 模型 = load_object_detection_model() 框 = model.predict(图像) 退货箱 3. OCR 示例:

蟒蛇 复制代码 导入 pytesseract

def extract_text(image, lang='eng'): 返回 pytesseract.image_to_string(图像, lang=lang) 通过执行这些步骤,您应该能够有效地对图像进行分割、分类和提取文本。

© www.soinside.com 2019 - 2024. All rights reserved.