问题标签 [google-assist-api]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - 如何禁用 Google Assist API(现在点击)
谷歌最近发布了带有 Now on Tap 的 Android Marshmallow,它可以扫描应用程序内容并向用户提供附加信息。
不幸的是,对于我们的应用程序,信息看起来不太相关,谷歌忽略了我们在里面设置的数据onProvideContentAssist()
和onProvideAssistData()
.
这些规范看起来相当高级,并且还包含诸如“可以建议”和“附加信息”之类的词,因此 Google 似乎正式允许自己忽略应用程序开发人员提供的数据。
所以我们决定禁用 Now on Tap,但似乎不是很简单。根据上面提供的文档,我们应该FLAG_SECURE
在这种情况下使用。但随后用户无法捕获屏幕截图,Google Now on Tap 开始将以下面向用户的消息归咎于我们的应用程序:
结果不可用
此应用已阻止 Now on Tap
但似乎 Opera 以某种方式温和地阻止了 Now on Tap 的私人标签。它为他们显示了更多的应用友好信息:
什么都没有
Opera 如何阻止 Now on Tap?
有谁知道如何阻止 Google Assist API(Now on Tap)而不会从他们这边对我们的应用程序负责?
android - 如何提供要在 Google-Now-On-Tap 上显示的内容?
背景
我正在开发一个可以回答某些查询(电话号码查询,也许还有其他)的应用程序。
Google 在 Android 6 上引入了一项新功能,称为“Google Now On Tap”(又名“Assist API”),它允许用户查询屏幕上显示的内容(通过长按主页按钮或说某些东西)而无需输入任何内容。
谷歌为它提供了一个开发者教程,在这里
问题
我找不到任何代码片段来展示如何为它准备应用程序。
我注意到的唯一一件事是我可以从 Application 类扩展,并在里面添加 OnProvideAssistDataListener 并注册到它。
但是,它引发了很多关于如何做到这一点的问题。
可悲的是,因为这个话题太新了,我几乎找不到任何关于它的东西,所以我想在这里问问题。
问题
1) 这个新功能是否有任何示例或至少有更解释的教程?
2)文档中说:
在大多数情况下,实施可访问性支持将使助手能够获得所需的信息。这包括提供 android:contentDescription 属性、为自定义视图填充 AccessibilityNodeInfo、确保自定义 ViewGroup 正确地公开其子级,以及遵循“使应用程序可访问”中描述的最佳实践。
为什么以及如何与应用程序的辅助功能一起使用?它与暴露子视图(或根本视图)有什么关系?如果应用程序尚未运行(因为该功能已在任何应用程序、任何地方激活),它甚至可能与视图有关。
我认为只有在前台应用程序是我的应用程序时才会调用它,但如果是这样,我如何才能根据输入的内容实际提供针对所有应用程序出现的查询?
3) 从 Application 扩展的类是否应该实现 OnProvideAssistDataListener ?如果是这样,为什么需要注册呢?如果不是,Google-Now-On-Tap 怎么可能与它配合使用?它不能只是打开所有有这样一个类的应用程序,看看他们是否注册......
4)文档有一个我不明白的示例片段:
新功能对每个键有什么作用?它是由应用程序使用,还是由 Google-Now-On-Tap 使用?我有什么选择?这是我定义我的应用程序是否可以处理该功能建议我的内容的地方吗?AssistContent 是否应该是我查看的输入,并决定我的应用程序是否可以处理或忽略它?
android - 如何使用 Google Assist API 实现助手
我一直在查看并阅读有关 Google Now on Tap 的信息(来自http://developer.android.com/training/articles/assistant.html)。
从那篇文章中很有趣地发现,Now on Tap 是基于与 Marshmallow 捆绑的 Google 的 Assist API,我们似乎可以开发自己的助手(谷歌在文章中使用的术语指的是像 Now on Tap 这样的应用程序)使用 API。
但是,上面提到的文章只是非常简要地讨论了如何使用 Assist API,即使在互联网上搜索了几天后,我也找不到任何关于如何使用它来开发自定义助手的额外信息。没有文档,也没有示例。
我想知道你们中是否有人可以分享使用 Assist API 的经验?任何帮助表示赞赏。
谢谢
android - Android 辅助如何在内部工作?
我已经阅读了文档,它说,
当前用户上下文与覆盖窗口中显示的潜在操作之间的匹配(如图 1 中的步骤 3 所示)是特定于助手的实现的。但是,请考虑为您的应用添加深度链接支持。助手通常会利用深度链接。例如,Google Now 使用深度链接和 App Indexing 来增加目标应用的流量。
除了深度链接和应用程序索引之外,还有其他方法吗,我可以利用作为 onHandleAssist() 中的 AssistStructure 实例接收到的用户上下文信息并通过onHandleScreenshot ( )进行屏幕截图。
具体来说,我想知道两件事,
1) android 辅助如何在内部工作?它是否使用谷歌搜索服务并提供答案?它使用谷歌公共搜索本体吗?
2) 我们能否构建一个定制的本体,以定制解决方案所需的方式为我们提供辅助结果?
任何见解都会有很大帮助。
android - Android VoiceInteraction 和 Assist API
我刚刚阅读了有关称为 Assist 和 VoiceInteraction 的 Android API。我想要实现的是像 NowOnTap 这样的应用程序。为此,我需要在用户长按主页按钮之前访问屏幕内容。
首先,我尝试在操作中使用正常活动android.intent.action.ASSIST
。
深入研究这一点,我发现为了在打开应用程序之前访问屏幕截图,我需要实现VoiceInteractionSession
及其方法onCreateContentView
和onHandleScreenshot
.
我无法通过使用创建 UI,onCreateContentView
而且根据我的日志,它甚至没有被调用。有使用此 API 经验的人吗?
android - 向 Android 助理添加内容
您好我正在开发一个处理产品的应用程序,我想使用 Android 助手改善用户体验。
我阅读了 Google 的文档并首先尝试使用以下代码:
该代码被调用,但没有增加谷歌助手抓取当前视图的正常体验。我还尝试使用产品架构(schema.org)(使用@product、@brand、@review ...),因为我认为问题是 json 对象在 google 搜索中没有给出任何结果。但是这个新的 json 什么也没出现。
当我认为问题在于 json 在 Google 搜索中没有定论或者我忘了做更多事情时,我错了吗?
谢谢
alexa - 谷歌助理 API
是否有一些谷歌助手 api 指南或教程?我找不到与这些关键字相关的任何内容。似乎有一些 Android 应用程序集成指南,但我想与我的云服务集成,而不是 android 应用程序。
我发现 IFTTT 已将 Google Assistant 连接到多个服务,因此我想在我的自定义服务中添加一些意图。
我已经使用 Alexa Skill Kit 构建了一个 Alexa 应用程序来处理我的自定义意图,并且想在 Google Assistant 开发者游乐场中找到类似的东西,但我不知道。
谢谢!
android - 如何以编程方式启动 Google Assistant?
我已经尝试了我发现的每一个简单的组合,但不知道如何做到这一点。我什至试图模拟家庭长按但你现在得到谷歌的声音,看看 logcat 它显示了这个
com.google.android.googlequicksearchbox/com.google.android.apps.gsa.staticplugins.opa.OpaActivity
但不确定这是否是我正在寻找的或如何复制它。
android - “嵌入式谷歌助手SDK”是否已经发布?
我想知道“嵌入式谷歌助手SDK”是否已经发布?我看到了https://developers.google.com/actions/tools/,对话操作和直接操作在这里,但是我找不到关于“谷歌助手 SDK”的文档,所以有人可以告诉我状态吗?谢谢你。
android - 如何为我的智能灯泡添加对 Google Home 应用程序的支持?
我们已经构建了一个智能灯泡,我们也希望使用 Google Assistant 来控制它(除了我们的 Android 和 iOS 应用程序)。我搜索了这个并发现我们需要在我们的灯泡上实现 Google Weave 协议,才能通过 Google Assistant 对其进行控制。我不明白的是如何将其添加到家庭应用程序中,以便用户可以将其作为智能灯泡添加到家庭应用程序并通过 Google 助理进行控制?