问题标签 [avspeechutterance]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - 在 Swift 中检测来自 AVSpeech 和 AVUtterance 的持续语音
我想您可以使用委托方法来判断 AV 语音何时结束
但是你怎么知道演讲是否正在进行并且还没有结束呢?
现在,我开始一些演讲
我想在对方before
说完的时候做点什么。仅仅在下面放一条线voice.speak(utt)
似乎不起作用。我认为这是由于比赛条件。我不能确定它会在语音被触发后以及在话语完成后委托方法触发之前触发。
完成块无济于事,因为我想在话语完成之前做一些事情。那么我如何在话语发生时做某事,换句话说,在话语开始的那一刻开始做某事?
ios - 同时使用两个 AVSpeechSynthesizer 实例
我想同时使用两个 AVSpeechSynthesizer 实例。
当我调用foo()
andbar()
时,文本不是同时阅读,而是一个接一个。
alexa - Alexa技能中的多轮对话错误
我创建了一个名为“BuyDog”的技能,它的调用名称是“dog app”
所以这应该意味着,只有在听到调用名称后,我才能使用内部定义的意图。(那是对的吗?)
然后我将带有插槽的意图定义为:
其中插槽{dog}
是插槽类型“DogType”。我已根据需要标记此插槽以完成
然后我将端点添加到 AWS lambda 函数中,在该函数中我使用了 node.js 中的 factkills 项目的蓝图代码,并进行了一些小改动以查看其工作情况。
根据我期待的关于代码
我说:“Alexa 开放狗应用程序”
它应该只是准备好听“什么是{dog}价格”的意图。另一个。data[]
相反,它表示来自 node.js 代码数组的随机字符串。在说出 Intent 之后,我期待得到这个响应,因为完成 Intent 需要插槽。
什么时候
我说:“打开狗应用程序,告诉我 XXXX 的价格。”
它要求“哪个品种” (这是我定义的问题)但它工作正常并显示定价
Alexa 说:“这是你的定价:你需要支付 5000 美元。”
(或数据数组中的其他值)用于任何 XXXX(即狗或非狗类型)。 为什么 alexa 不确认这个词是否在 slot set 中?
什么时候
我说:“打开狗皮”。
我预计 alexa 不会理解这个问题,但它给了我一个关于吠叫的事实。为什么?那是怎么发生的?
Alexa 是否有一套默认的技能?像搜索谷歌/亚马逊等...
我感到很困惑。请帮助我了解发生了什么?
ios - 在 Swift 中强制自定义 AVSpeech 和 AVSpeechUtterance 中的单词发音
对于使用 AVSpeechUtterance 说出数字,我希望 Siri 以尊重数字类型约定的方式说出数字。
对于日期,我希望将 1492 发音为 1492,而不是 1000、400、92。
对于电话号码 650-412-3456,我想说六五哦,四一二三四五六,而不是六百五十破四百十二破三,一千四百五十六。
有没有使用 AVSpeech 和 AVUtterance 指定发音?文档中似乎没有任何明显的内容。
ios - 将 Animoji 和 AVSpeechSynthesizer 与 Swift 结合使用?
我正在尝试混合和匹配 Animoji 和 AVSpeechSynthesizer,以便我可以调用引用列表,并让 Animoji 视觉呈现和可用并说出它们。
我不确定 Swift / Swift Playgrounds 是否可以做到这一点,但我欢迎任何关于如何做到这一点的建议。我已经看过一些使用 Swift 创建自定义 Animoji 面孔的教程,但我不完全确定如何将这两件事结合在一起。
任何想法,将不胜感激。
ios - 提高/增加文本到语音的音量 (AVSpeechUtterance) 使其更响亮
我有一个导航应用程序,它使用AVSpeechUtterance
. 我已经把音量设置为 1 像这样。speechUtteranceInstance.volume = 1
,但与来自 iPhone 的音乐或播客相比,音量仍然非常低,尤其是当声音通过蓝牙或有线连接(如通过蓝牙连接到汽车)时
有什么办法可以提高音量吗?(我知道之前有人问过这个问题,但到目前为止还没有找到适合我的解决方案。)
avfoundation - 文本到语音 API (AVSpeechSynthesisVoice) 在 iOS 13 GM 中损坏
更新
我在另一台设备上安装了 iOS 13 GM,没有遇到这个问题。因此,我不再确定这是否特定于 iOS 13 GM,或者与我安装它的方式有关。在第一台设备(iPhone X)上,我进行了升级(通过 iTunes 中的“选项键 + 检查更新按钮”)。在第二台设备(iPhone SE)上,我进行了完全恢复。尚不确定是什么原因导致它进入这种状态。
原始问题
AVSpeechSynthesisVoice.speechVoices()
报告说,当我在装有 iOS 13 GM 的设备上运行它时,没有可用的声音。事实上,当我尝试使用它加载语音时,AVSpeechSynthesisVoice(identifier:)
它总是返回 nil。它在模拟器中工作。我不认为这是以前的 beta 版本的问题,它似乎在 iOS 13.1 beta 2 和 3 中有效。
有没有人遇到过这种情况,并想出任何解决方法?我没有看到任何有意更改此行为的文档,因此我怀疑这是一个错误。我打算提交雷达。但这对即将发布的 iOS 13 没有帮助。
这种行为在新创建的单视图项目中是可重现的,viewDidLoad
在包含的视图控制器中添加了以下琐碎的功能。
输出很长:
它重复了最后 7 行 39 次,大概对应于它应该知道的 39 个声音。
crash - iOS 13 TTS 崩溃 - 无法找到资源 `lang'[kLanguage] - (AVSpeechSynthesisVoice, AVSpeechUtterance)
我们看到了一个可能与 TTS 相关的奇怪崩溃(致命异常:std::logic_error: Unable to find resource `lang'[kLanguage])。它发生在不同语言的我身上,所以 iOS 13 似乎有一些变化。也许 TextToSpeech 资源没有及时加载。有人知道吗?其他人是否看到此崩溃或更好地知道如何解决此问题?
amazon-web-services - Alexa 是否使用机器学习来学习新的话语来触发你的技能意图?
我有一个重要的问题,目前我正在写我的最后一篇论文,然后再开始我的学士论文。它是关于语音应用程序的,其中肯定包括 alexa 技能。
但我需要一些关于话语容差的信息。而且我还无法在互联网上找到一些信息。Alexa 是否只识别开发人员输入的话语,还是 Alexa 使用 Google Assistant 等机器学习来学习新的话语?这对我的论文真的很重要。因此,如果您能帮助我解决这个问题,我将非常高兴。
谢谢!