问题标签 [handwriting-recognition]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tesseract - 用于 Tesseract 的 IAM 手写数据库的训练数据文件
有人可以给我 IAM 手写数据库的训练数据文件以用于 tesseract。我需要 .traineddata 文件。
image-processing - 分词直方图解释
我正在尝试在手写文本行中分割单词。我是根据一篇研究论文来做的,该论文在图像中给出了分词部分。我不明白要制作直方图的数量。分词直方图-(图片链接)
c# - 如何在 uwp 中将自定义单词列表添加到 inkrecognizer?
我开发了一个 uwp 应用程序,该应用程序具有自定义用户控件,允许使用手写笔将用户输入手写识别到文本框中。
它适用于常用词,但是我的用户经常使用技术术语和首字母缩略词,这些术语和首字母缩略词并不总是被识别或根本不被识别,因为它们在我设置为我的 InkRecognizer 的默认识别器的语言中没有特色。
这是我设置默认 Inkrecognizer 的方法:
以及我如何获得识别结果:
预期的结果通常也不包含在其他文本候选中。
我已经阅读了 Windows.UI.Input.Inking 的 msdn 文档,但没有发现任何关于这个特定主题的有用信息。围绕手写识别存在的 Channel9 视频以及我的 google-fu 能够想象的结果也是如此。理想情况下,我正在寻找类似于Windows.Inking 中存在的WordList的东西
有没有办法以编程方式将单词列表添加到 Inkrecognizer 的单词池中,或者在 uwp 应用程序中创建用于手写识别的自定义词典?
machine-learning - 如何使用 HMM 模型计算样本的置信度?
我正在研究基于隐马尔可夫模型(HMM)的手写数字识别。训练后,我们得到 5 个模型。我取样并计算每个模型的概率似然。然后这些是结果:
- 对于模型 1:-235
- 对于模型 2:-250
- 对于模型 3:-193
- 对于模型 4:-290
- 对于模型 5:-325
表明样本将落入模型 3rd,因为它具有最高的概率(-193)。问题是如何将值 (-193) 转换为百分比以将其表示为识别的置信度?
matlab - 使用神经网络的手写分词
所以我想做的是将草书手写英文单词分割成单个字符。我已经应用了一种简单的人工智能启发式方法来对单词进行基本的过度分割,如下所示:
我在 Matlab 中对此进行编码。该方法涉及预处理、倾斜校正大小归一化等,然后将笔画细化到 1 个像素宽度,并使用图像像素的列和来识别图像中存在的连字。像素和低于阈值的每一列都是可能的分割点。问题是像“u”、“v”、“m”、“n”和“w”这样的开放字符也具有低像素列总和并被分割。我使用的方法是本文介绍的修改版本:
现在为了改进这种安排,我必须使用神经网络来纠正这些过度分割的点并将它们识别为错误的分割。我将为此编写一个“newff”函数,并手动将这些段标记为好和低,但我不明白该神经网络的输入应该是什么?
我的猜测是,我们必须提供一些图像数据以及进行可能分割的列号(每个训练样本一个分割点。给定的图像有大约 40 个分割点,因此它将导致 40 个训练样本)并拥有它标记为训练的好或坏段。
只有一个输出神经元告诉我们分割点是好是坏。
我可以将所有列的列总和作为输入层的输入吗?我如何告诉它这个训练实例的分割点是什么?我们必须分类为好或坏段的实际列号,这是这里最重要的值,难道不会淹没在这个 n 维输入的海洋中吗?(n 是图像像素的宽度)
php - PHP - 如何在网站上进行手写识别日语
最近,我正在研究手写识别日语项目。我正在某处搜索,但仍未收到有关此的良好信息。有人可以给我一些关于 PHP 和 ajax 在网站上的手写识别的猜测或提示。
java - 如何训练 OCR 神经网络?
对于我的 APCS 最终项目,我正在制作一个应用程序:
- 允许用户在绘图面板上绘制数字;
- 将每个笔划(由 xy 坐标列表表示)缩放/平移到 100x100;
- 从缩放的笔划生成图像;
- 从该图像生成一个二进制二维数组(0 表示白色,否则为 1);
- 并将该二进制数组传递给神经元对象以进行字符识别。
下面的类代表神经元:
我使用不同的类来“训练”神经元。另一个类——TrainingConsole.java——基本上采用带有随机生成组件的“training.txt”,为其提供训练示例(图像 --> 二进制 2D 数组),并根据误差、学习率和相应的值调整权重对于垃圾箱:
对于后续的神经元构造,我将“training.txt”作为权重矩阵传递。但是,这显然不起作用:在此处输入图像描述
请帮忙!我对神经网络和机器学习真的很陌生。在这一点上,我不知道自己做错了什么:我需要更多的训练样本吗?我应该实现一个糟糕的激活功能吗?任何意见,将不胜感激。此外,如果需要,请随时请求其他代码。
java - 从图像到字符串的手写识别
我正在使用 Encog 并运行了 ocr 示例。它工作正常。但是,我想将图像文件(png、jpg、...)作为参数传递。此图像包含要识别的文本。然后,系统应该返回一个带有“相同”文本的字符串。
有人已经做过类似的事情了吗?我应该如何开始?
谢谢!
machine-learning - Digit Recognition on CNN
I am testing printed digits (0-9) on a Convolutional Neural Network. It is giving 99+ % accuracy on the MNIST Dataset, but when I tried it using fonts installed on computer (Ariel, Calibri, Cambria, Cambria math, Times New Roman) and trained the images generated by fonts (104 images per font(Total 25 fonts - 4 images per font(little difference)) the training error rate does not go below 80%, i.e. 20% accuracy. Why?
Here is "2" number Images sample -
I resized every image 28 x 28.
Here is more detail :-
Training data size = 28 x 28 images. Network parameters - As LeNet5 Architecture of Network -
#xA;This works, giving 99+% accuracy on MNIST. Why is so bad with computer-generated fonts? A CNN can handle lot of variance in data.