我正在为一个大学项目开发一个原型语音到文本字幕应用程序。稍后我将在我的项目中使用手势识别,所以我认为使用 Kinect 作为麦克风源而不是使用额外的麦克风是个好主意。我的应用程序的想法是识别自发的语音,例如长而复杂的句子(但我知道语音听写不会是完美的)。我看过许多 Kinect 语音示例,其中引用了 Microsoft.Speech,但没有引用 System.Speech。由于我需要训练语音引擎并将 DictationGrammar 加载到语音识别引擎中,Microsoft.Speech 是我唯一的选择。
在将 Kinect 用作直接麦克风音频源时,我已经设法让它工作,但由于我正在加载 Kinect 以进行视频预览和手势识别,因此我无法将其作为直接麦克风访问。
这是直接访问麦克风的代码,无需加载用于手势等的 Kinect 硬件,并且运行良好:
private void InitializeSpeech()
{
var speechRecognitionEngine = new SpeechRecognitionEngine();
speechRecognitionEngine.SetInputToDefaultAudioDevice();
speechRecognitionEngine.LoadGrammar(new DictationGrammar());
speechRecognitionEngine.RecognizeAsync(RecognizeMode.Multiple);
speechRecognitionEngine.SpeechRecognized += (s, args) => MessageBox.Show(args.Result.Text);
}
这就是我需要在加载 Kinect 后通过 Kinect 访问访问源的地方,这根本没有做任何事情。这是我想做的:
using (var audioSource = new KinectAudioSource())
{
audioSource.FeatureMode = true;
audioSource.AutomaticGainControl = false;
audioSource.SystemMode = SystemMode.OptibeamArrayOnly;
var recognizerInfo = GetKinectRecognizer();
var speechRecognitionEngine = new SpeechRecognitionEngine(recognizerInfo.Id);
speechRecognitionEngine.LoadGrammar(new DictationGrammar());
speechRecognitionEngine.SpeechRecognized += (s, args) => MessageBox.Show(args.Result.Text);
using (var s = audioSource.Start())
{
speechRecognitionEngine.SetInputToAudioStream(s, new SpeechAudioFormatInfo(EncodingFormat.Pcm, 16000, 16, 1, 32000, 2, null));
speechRecognitionEngine.RecognizeAsync(RecognizeMode.Multiple);
}
}
所以问题是,是否可以在当前的 Kinect SDK 中使用 System.Speech 而不是 Microsoft.Speech,我在第二个代码示例中做错了什么?
GetKinectRecognizer 方法
private static RecognizerInfo GetKinectRecognizer()
{
Func<RecognizerInfo, bool> matchingFunc = r =>
{
string value;
r.AdditionalInfo.TryGetValue("Kinect", out value);
return "True".Equals(value, StringComparison.InvariantCultureIgnoreCase) && "en-US".Equals(r.Culture.Name, StringComparison.InvariantCultureIgnoreCase);
};
return SpeechRecognitionEngine.InstalledRecognizers().Where(matchingFunc).FirstOrDefault();
}