我最近重新访问了CMU Sphinx并尝试为 Android 设置一个基本的热词检测器,从教程开始并调整示例应用程序。
我遇到了各种问题,尽管深入研究了他们的文档,但我无法解决这些问题,直到我无法再阅读......
为了复制它们,我制作了一个基本项目,旨在检测关键字唤醒你和唤醒我。
我的字典:
me M IY
wakeup W EY K AH P
you Y UW
我的语言模型:
\data\
ngram 1=5
ngram 2=5
ngram 3=4
\1-grams:
-0.9031 </s> -0.3010
-0.9031 <s> -0.2430
-1.2041 me -0.2430
-0.9031 wakeup -0.2430
-1.2041 you -0.2430
\2-grams:
-0.3010 <s> wakeup 0.0000
-0.3010 me </s> -0.3010
-0.6021 wakeup me 0.0000
-0.6021 wakeup you 0.0000
-0.3010 you </s> -0.3010
\3-grams:
-0.6021 <s> wakeup me
-0.6021 <s> wakeup you
-0.3010 wakeup me </s>
-0.3010 wakeup you </s>
\end\
以上两个都是使用建议的工具创建的。
我的关键短语文件:
wakeup you /1e-20/
wakeup me /1e-20/
调整上面链接的示例应用程序,这是我的代码:
public class PocketSphinxActivity extends Activity implements RecognitionListener {
private static final String CLS_NAME = PocketSphinxActivity.class.getSimpleName();
private static final String HOTWORD_SEARCH = "hot_words";
private volatile SpeechRecognizer recognizer;
@Override
public void onCreate(Bundle state) {
super.onCreate(state);
setContentView(R.layout.main);
new AsyncTask<Void, Void, Exception>() {
@Override
protected Exception doInBackground(Void... params) {
Log.i(CLS_NAME, "doInBackground");
try {
final File assetsDir = new Assets(PocketSphinxActivity.this).syncAssets();
recognizer = defaultSetup()
.setAcousticModel(new File(assetsDir, "en-us-ptm"))
.setDictionary(new File(assetsDir, "basic.dic"))
.setKeywordThreshold(1e-20f)
.setBoolean("-allphone_ci", true)
.setFloat("-vad_threshold", 3.0)
.getRecognizer();
recognizer.addNgramSearch(HOTWORD_SEARCH, new File(assetsDir, "basic.lm"));
recognizer.addKeywordSearch(HOTWORD_SEARCH, new File(assetsDir, "hotwords.txt"));
recognizer.addListener(PocketSphinxActivity.this);
} catch (final IOException e) {
Log.e(CLS_NAME, "doInBackground IOException");
return e;
}
return null;
}
@Override
protected void onPostExecute(final Exception e) {
Log.i(CLS_NAME, "onPostExecute");
if (e != null) {
e.printStackTrace();
} else {
recognizer.startListening(HOTWORD_SEARCH);
}
}
}.execute();
}
@Override
public void onBeginningOfSpeech() {
Log.i(CLS_NAME, "onBeginningOfSpeech");
}
@Override
public void onPartialResult(final Hypothesis hypothesis) {
Log.i(CLS_NAME, "onPartialResult");
if (hypothesis == null)
return;
final String text = hypothesis.getHypstr();
Log.i(CLS_NAME, "onPartialResult: text: " + text);
}
@Override
public void onResult(final Hypothesis hypothesis) {
// unused
Log.i(CLS_NAME, "onResult");
}
@Override
public void onEndOfSpeech() {
// unused
Log.i(CLS_NAME, "onEndOfSpeech");
}
@Override
public void onError(final Exception e) {
Log.e(CLS_NAME, "onError");
e.printStackTrace();
}
@Override
public void onTimeout() {
Log.i(CLS_NAME, "onTimeout");
}
@Override
public void onDestroy() {
super.onDestroy();
Log.i(CLS_NAME, "onDestroy");
recognizer.cancel();
recognizer.shutdown();
}
}
注意:- 我是否应该将我选择的关键短语(和其他相关文件)更改为更加不同,并且我在安静的环境中测试实现,应用的设置和阈值工作非常成功。
问题
- 当我说唤醒你或唤醒我时,两者都会被检测到。
我无法确定如何对结尾音节应用增加的权重。
- 当我说只是wakeup时,通常(但不总是)两者都会被检测到。
我无法确定如何避免这种情况发生。
- 在针对背景噪声进行测试时,误报太频繁了。
我无法降低我正在使用的基本阈值,否则在正常条件下无法始终如一地检测到关键短语。
- 当长时间针对背景噪音进行测试时(5 分钟应该足以复制),立即返回安静的环境并说出关键短语,导致检测不到。
在成功且重复地检测到关键短语之前需要一段不确定的时间 - 就好像测试是在安静的环境中开始的一样。
我发现了一个可能相关的问题,但链接不再有效。我想知道我是否应该更频繁地重置识别器,以便以某种方式将背景噪声从平均到检测阈值中重置?
- 最后,我想知道我对有限关键词的要求是否可以让我减小声学模型的大小?
在我的应用程序中打包时的任何开销当然都是有益的。
最后(老实说!),特别希望@NikolayShmyrev会发现这个问题,有没有计划完全通过gradle 包装一个基本的Android 实现/ sdk?
我感谢那些让我走到这一步的人...