问题标签 [google-aiy]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
4 回答
755 浏览

raspberry-pi - [google-aiy]:RPi 上的两个视觉引擎盖

这与我想使用 Google AIY VIsion Kit + Raspberry Pi 构建的项目有关。

我想将两个视觉阀帽连接到 RPi 零 W。我意识到 Pi 使用 SPI 接口与视觉阀帽交互。从 RPi GPIO 头的原理图中,似乎也有两个 SPI 接口。所以,我想知道我是否可以将两个视觉引擎盖连接到 Pi。那可能吗?

此外,我在这方面有两个想法:

(1) 我认为单个 Vision Bonnet 不会使用所有 40 个引脚。因此,如果我知道实际使用了哪些引脚,我可以使用该信息来考虑添加另一个 Vision Bonnet。但是,我不确定如何获取此信息。你能帮我提供这些信息吗?

(2) 如果我无法获得 (1) 中的详细信息,我正在考虑通过在 VisionBonnet 上再添加一个头来扩展 Pi 上的 GPIO 头。然后,我将第二个引擎盖附加到新添加的标题上。这有意义吗?

谢谢,文奇

0 投票
1 回答
130 浏览

google-aiy - AIY Vision Kit - CameraInference 是否总是抓取最新/当前帧?

如果我的模型需要 80 毫秒来处理每一帧 (12.5 fps),但相机以 30 fps 运行,CameraInference 如何处理要处理的下一帧?

它是否在处理之前抓取当前的当前帧?还是它从帧缓冲区中拉出较早的帧?

代码示例:

0 投票
2 回答
265 浏览

raspberry-pi - 谷歌 AIY Voicekit V1 没有响应

在运行 AIY 语音套件“assistant_grpc_demo.py”演示应用程序时,它可以识别我所说的内容,但没有任何回复。

此外,对于“assistant_library_demo.py”演示应用程序,它会检测到我何时说“Ok Google”,但无法识别我在此之后所说的任何内容。

有谁知道如何解决这些问题?非常感谢任何帮助或建议。

0 投票
1 回答
58 浏览

raspberry-pi - 什么都不说时GRPC获取函数调用

我正在使用 AIY 语音工具包提供的 GRPC 演示作为使用自定义命令的助手的模板。我正在使用的 AIY 版本具有为视觉和语音设置的文件结构(但我没有使用视觉部分)。

我想测试用户在按下按钮后是否没有说任何话,以便我可以播放声音或给出其他指示(例如更改状态灯或说“对不起,我没听懂。”)无论如何没有听到说出的命令,他们需要在说话之前再次按下按钮。

我知道有一个函数在助手库和/或 cloudpeech 库中没有响应时被调用,但我想使用 GRPC 的函数调用,它不使用 Google 助手 API。

任何答案都非常感谢,但请尽量保持简单。我对 python 有很好的了解,但对 AIY 在后台所做的任何事情几乎没有经验。

0 投票
0 回答
80 浏览

actions-on-google - 如何将 Google Voice Kit 连接到由同一帐户创建的 Google Actions?

我已经将谷歌 AIY 语音工具包连接到我的笔记本电脑,使用与创建谷歌操作相同的帐户创建凭据(按照本教程),我已经注册了我的设备,我没有想法,工具包仍然提示时无法识别我的操作。任何帮助,将不胜感激。

0 投票
1 回答
1241 浏览

google-assistant-sdk - google home 应用程序将 google AIY 语音套件识别为灯

我最近使用谷歌助手 sdk 购买并设置了谷歌 aiy 语音工具包。当我打开我的 google home 应用程序时,我注意到语音套件被检测为灯,我想知道是否可以更改它,以便我可以将它用作类似 google home 的设备(智能扬声器)。这是显示在 google home 应用程序上的内容

0 投票
0 回答
110 浏览

python - 谷歌 aiy 视觉套件编译器:从 tensorboard 获取输出节点

我正在尝试将使用 Tensorflow 中的 Keras API 训练的自定义模型部署到 google aiy vision kit v2,当.pb使用我得到的视觉套件编译器从 Tensorflow 文件编译模型时:

我的问题是,如何从 tensorboard 中获取参数中传递给编译器的输出节点--output_tensor_names

我已经尝试过返回的值:

final_output,这是 keras 中最后一层的名称。

但是这些都不起作用,我怎样才能在 tensorboard 中看到正确的预期节点?

0 投票
2 回答
761 浏览

python - 按下按钮触发我的 Google 助理应用

我有一个完全组装且功能齐全的 AIY 语音套件(我已经成功测试了 3 个 demos.py)。我设法启动了演示,我们必须按下按钮来启动 Google 助手。但现在我希望它只会触发我的 Google 操作(并直接启动«欢迎使用 XXXX 应用程序。你想要...»)。我怎样才能做到这一点?

0 投票
0 回答
746 浏览

java - android的AudioTrack播放TextToSpeech.synthesizeToFile的输出需要什么参数?

我想使用AudioTrack播放 android 的TextToSpeech.synthesizeToFile的输出,但担心我向 AudioTrack 的构建器传递了错误的参数。如果您想亲自查看 TextToSpeech.synthesizeToFile 的输出,我使用 adb 复制了使用 TextToSpeech.synthesizeToFile 生成的文件之一,并将其​​放入此 github 文件中。当我在 linux 中运行时,该文件会播放我写的文本 ( hello world ),并打印以下内容:play tempSoundFile8290688667049742717.wav

因此,我将 AudioTrack 的参数设置如下:

然后使用此处的代码播放文件:

当然,正如您在我的代码中看到的那样,对这些的调用分布在不同的异步调用中,但是我已经使用日志语句和调试器调试了所有这些,并且没有发现任何问题。playWav() 在我期望的时候被击中,但没有播放任何东西。

编辑:

我使用 AudioTrack 的主要动机是使其 TextToSpeech 与树莓派语音套件android things 库兼容。使用 AudioTrack 将允许我通过 I2S(或我选择的任何扬声器)播放 textToSpeech。

编辑2,更深入的了解:

根据这个网站,wav 文件有一个 44 字节的标头,说明所有这些参数是什么。在此标题中,位于:

  • 位置 20,指示文件类型的 2 个字节(小端)(PCM 为 16)
  • 位置 22,2 个字节,指示通道数(1 表示单声道,2 表示立体声)(小端序)
  • 位置 24,指示采样率的 4 个字节(小端)
  • 最后在第 34 位,2 个字节指示每个样本的位数(小端序)

这是上述文件的十六进制转储:

0 投票
1 回答
505 浏览

raspberry-pi - “aiy-vision-dkms”的构建失败

我正在尝试在 Raspian Stretch 4.14.79-v7+ 上安装 Google AIY Vision Bonnet,如https://github.com/google/aiyprojects-raspbian/blob/aiyprojects/HACKING.md中所述,但是 aiy- 的构建vision-dkms 失败并出现很多错误。

我在 Python 虚拟环境中完成了所有步骤,因此定义如下:

我执行这些命令:

此时构建失败:

以下是 /var/lib/dkms/aiy/1.1/build/make.log :

以下是 /var/lib/dkms/aiy-vision/1.1/build/make.log :

你知道我能做什么吗?

谢谢

真挚地