问题标签 [siri]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ruby - 在 SiriProxy 插件中使用命名捕获组
我正在开发一个 SiriProxy 插件。我正在尝试将所有正则表达式移动到配置文件中。可以有多个短语(即正则表达式)触发同一个命令,正则表达式需要捕获特定的值才能调用底层函数。
我可能有一个记录动物相关行为的命令,为此我想使用 2 个短语,如下所示:
其中“cat”和“mouse”是两个参数。猫是追逐者,老鼠是追逐者,这两个短语以不同的顺序使用它们。我的目标(记住,使用siriproxy 插件框架)是使捕获参数的顺序无关紧要,所以我总是知道在捕获的术语中,谁是追逐者和追逐者。
所以,我的 2 个正则表达式如下所示:
他们确实正确地捕捉了这两个术语,但他们关心的是按顺序捕捉。使用 SiriProxy 框架,我们使用 listen_for 命令,我可以让它工作:
但是追逐者和追逐者的顺序必须在|之间交换。人物。我希望这是标准化的,这样正则表达式短语是什么以及它如何对参数进行排序都无关紧要。
当我尝试交换参数时,值也会交换,导致错误的动物成为追逐者和 cahser。就好像 listen_for 命令在将命名的捕获组传递给函数调用时并没有“尊重”它们,而是按顺序进行。
有没有人解决过类似的问题,或者使用 SiriProxy,或者只是使用 Ruby 正则表达式?我不知道我是否可以对正则表达式本身做些什么来强制这些术语按顺序排列,或者以不同的方式使用 listen_for 命令来实现这一点。
ios - 是否可以使用私有 API 在我的应用程序中以编程方式调用 Siri?
我不想让用户按住主页按钮,而是想在我的应用程序中以编程方式启动 Siri。由于没有可用的公共 API 来完成此操作,我想知道,是否有人能够通过私有 API 以编程方式启动 Siri,如果可以,您使用了哪个私有 API?
我对 Siri 的任何返回值都不感兴趣。我想做的就是启动它。
ios - 是否可以在 iOS 的 html 输入字段上使用 Siri?
我知道我可以将以下属性添加到输入字段,并在 CHrome 中获得语音功能:
x-webkit-speech="x-webkit-speech"
但是,是否存在使用类似属性在 iOS 中调用 Siri 的能力?
ios - 判断 iOS 应用程序是否通过 Siri 启动
我一直在寻找,但一直没有找到……你知道是否有办法确定我的 iOS 应用程序是由 Siri 还是由用户点击应用程序图标启动的?
我需要知道,因为我只想在从 Siri 启动我的应用程序时自动执行启动操作。
我在想也许application:didFinishLaunchingWithOptions或其他一些 API 可以让我的应用程序知道它是如何启动的,但情况似乎并非如此(或者我只是错过了它)。
知道在 Apple 发布一些官方/公共 Siri API 之前我可以使用一些技巧吗?
iphone - 是否可以在我的 iphone 应用程序中使用 siri
我想开发一个支持 siri 的 iPhone/iPad 应用程序。真的有可能吗?有人可以帮我吗
ios - 将数据推送到 Siri
我知道这是一个漫长的尝试,但是有没有办法在 iOS 上将数据推送到 Siri。
我的意思是,我有一个程序,其中包含一些数据,例如我的购物清单或其他任何数据。现在我想问 Siri 我需要买什么,她会回答我名单上的工作人员。
我发现 Siri 不提供 API 来集成到您的应用程序中,但我的问题是反之亦然。
jquery - 检测来自 iPad siri 的文本框输入
我目前正在使用来检测表单字段keyup
paste
propertychange
的输入。
但是,当使用具有这些属性的 iPad 时,不会检测到文本输入。textarea
siri
使用jQuery在表单字段中捕获siri文本的正确方法是什么?
我的样品
audio - 如何捕获 Siri 的音频数据
我目前正在开发一个关于 iPhone 上说话人识别的 Cydia 调整。此调整可以识别当前用户是否是手机所有者(经过培训)。这个调整已经在 Android 上实现,我们已经编译和测试了核心库。我们面临的唯一困难是如何从 Siri 中捕获音频数据。我们尝试过:
挂钩函数“- (void)_tellSpeechDelegateRecordingWillBegin”和“- (void)_tellSpeechDelegateRecordingDidEnd”并使用 AvAudioRecorder 录制音频 - 失败,因为 Siri 正在录制时所有 AvAudioSession 将被中断。
挂钩函数“- (void)startSpeechRequestWithSpeechFileAtURL:(id)arg1”。这个函数似乎与音频文件有关,但我们可以让这个函数与 Logos 调整框架挂钩。
我们正在考虑两种可能的方式:
- 实现一个可以绕过 Siri 中断的低级录音机。(类似于通话记录器。)
- 在 iPhone 内部实现一个 Http(s) 代理服务器并捕获转发到 Siri 服务器的请求。
但我们对这些选择几乎没有经验。有没有人有想法从 Siri 捕获音频(通过电话而不是通过外部服务器)
更新(2014 年 2 月 12 日)
检查这个。我发现有一个名为“AFSpeechRecorder”的类。它用于 Siri。我想它一定与音频数据有关。但不幸的是,这个类在 iOS 7 中被删除了。对这些变化一无所知。
ios - iOS 文字转语音 API
我似乎在这方面找不到任何东西。iOS7 中是否有任何 Siri 类或 API 可以让您将文本转语音?我要做的只是如下所示:
然后让 Siri 从我的应用程序中说出来。
看来我们应该有能力做到这一点,不是吗?似乎是一件微不足道的事情。
ios - 从 Siri 返回应用程序时的通知
我在我的 iOS 7 应用程序中使用 AVSpeechSynthesizer。我让它在向用户读取文本的地方正常工作,但是当用户触发 Siri 时,语音停止并调用以下方法:
这是可以理解的,因为您不想通过 Siri 说话。但是,我不知道如何判断用户何时完成 Siri 并返回我的应用程序。viewDidAppear/viewWillAppear 方法似乎都没有触发。有谁知道要听什么事件或方法?