问题标签 [ssml]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
dialogflow-es - Google 上的 SSML Actions,更改说话语言
在谈话过程中我似乎无法改变语言。我试过了:
任何想法如何做到这一点?
dialogflow-es - LocationPermission 上下文中的 SSML
我使用这段代码作为我的主要声音:
问题是当您在上下文中请求许可时,例如:
结果就是字面意思:
是否可以将 SSML 与权限库一起使用,以便我可以更改声音?如果我不使用 SSML,听起来就像是其他人在说话,这会破坏体验。
text-to-speech - Microsoft 语音合成,SpeakSsmlAsync 没有语言属性
我正在使用 Microsoft Speech Synthesis 来播放我的 SSML 字符串, public Prompt SpeakSsmlAsync(string ssmlText);
并且我有一个不应该使用的要求,xml:lang
但是当我从字符串中删除 xml:lang 属性时,ssml
我遇到了异常
'speak' 需要属性 'xml:lang'
xml:lang
那么有没有一种方法可以让我在不使用属性的情况下播放我的 SSML 字符串并让语音引擎处理它?
我想玩但失败了:
使用 lang 属性:
提前致谢。
actions-on-google - google actions sdk:声音的动态变化
在我正在处理的用例中,我希望通过在对话语音字符串中传递一个参数来更改 TTS 语音。例如,
操作控制台提到我们可以覆盖用户的默认语言环境并强制使用特定的 TTS 语音(如上)。它确实有效。
问题是:我们如何设置声音说:en-AU
或en-GB
通过语音标签?我尝试通过variation
orlanguage
或设置它name
,它不起作用。
谢谢。
node.js - alexa 询问 sdk v2 nodejs 如何说出字符串数组作为响应
我在 alexa 响应中说出多个选项时遇到问题。请在下面找到代码:
getNearestNames API 调用会发送一个数组作为响应。我试图一一说出每个名字。但是将最接近的名称变量传递给 speak() 函数会导致“请求技能的响应存在问题”。我该如何解决这个问题?
谢谢
node.js - AWS Alexa V2 中的 SSML 支持
我正在努力将 Alexa 技能从 V1 更新到 V2。但由于某种原因,SSML 似乎无法在 V2 版本中运行。这些是我尝试过的几个场景。
直接通过ssml绑定,
此外,尝试作为一个对象,
有谁知道,我可能做错了什么?提前致谢。
echo - Amazon Echo 审查 SSML 输出
我试图让我的 AlexaSkill 给出一些短语,但它会审查字母组合“zob”到“z**”
JSON-Output 看起来很正常,但输出本身发生了变化。有没有机会让它正确发音?我没有找到解释。
谢谢!
alexa - 如何正确使用 SSML 向 Alexa 发送时间?
我正在尝试像这样制作 SSML:$ 11:20 Am
但 Alexa 会说:"Dollar eleven colon twenty AM"
.
如果我删除$
,Alexa 会说:"Dollar eleven twenty AM"
。
符号有什么问题$
以及如何解决?
c# - 让 XDocument 识别嵌入式 SSML
我正在使用文本到语音向视频教程添加语音。目前,所有文本都在一个文件中,并被读入 C# 应用程序并解析为多个步骤。我想做的是将 ssml 添加到文本文件中,特别是在整个特定指令中(暂停)的能力。我正在使用Cognitive-Speech-TTS中的示例代码。这段代码使用了一个很好的干净的方法
例如,如果我将“文本”设置为
它不会识别嵌入的 xml。有没有办法让 XDocument 识别文本中的 xml。请注意,在实际应用程序中,文本是从数据文件中填充的。
node.js - 仅在使用 Google 的 Text to Speech API 一次执行多个请求时获取最后一个请求的音频
一次执行多个请求时,使用Promise.all
,我似乎只得到audioContent
最后一个解析请求的。
我正在合成大文本,需要使用 API 的字符限制将其拆分。
我以前有这个工作,所以我知道它应该工作,但最近停止工作。
我在亚马逊的 Polly 上做同样的事情,并且它在那里工作。这是完全相同的代码,但具有不同的客户端和不同的请求选项。
所以这让我觉得这可能是图书馆的事情?还是谷歌服务问题?
我正在使用最新版本:https ://github.com/googleapis/nodejs-text-to-speech
上面的代码创建了多个具有正确命名和索引号的文件,但是它们都包含相同的音频。那是; 解决最快的音频响应。
Promise.all
用一个简单的循环替换for
它,使它工作。但这需要更长的时间,因为它等待每个请求解决。我知道一个Promise.all
可以工作,因为我以前工作过,并且希望看到它再次工作。
我似乎无法让它与Promise.all
.