问题标签 [google-aiy]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
raspberry-pi - 有没有关于如何在谷歌aiy语音板上使用GPIO的数字输入或模拟输入的例子?
我无法读取运动传感器 (HC-SR501) 的输入,该传感器连接到我的 ai 语音套件的语音引擎盖上的扩展引脚的 PIN_A。
以下是代码和错误消息,请说明。
代码:
错误信息:
linux - Gstreamer 不适用于 mendel 以外的其他用户
我有一个谷歌珊瑚开发板。我希望 gstreamer 插件可以与默认用户mendel以外的用户一起使用。我执行了以下步骤并遇到了问题。
使用以下命令安装了 gstreamer。
sudo apt-get install -y gstreamer1.0-plugins-bad gstreamer1.0-plugins-good python3-gst-1.0 python3-gi
然后在以下脚本中克隆了 mendel 用户。
3. 如果我们将上述文件保存在名称clone-user.sh下。然后使用以下命令
./clone-user.sh mendel user2
。
sudo su - user2
如果我们使用并运行命令切换到上面创建的用户gst-launch-1.0 videotestsrc ! waylandsink
。然后 gstreamer 将无法工作。gst-launch-1.0 videotestsrc ! waylandsink
如果我们使用默认用户,该命令在哪里起作用。就我而言,它是mendel。
我试过 链接。但它也不起作用。
google-aiy - aiy pin.py的gpio零按钮按下错误
将按钮连接到 V2 AIY 语音引擎盖上的 GND 和 PIN_D 和代码:
我收到消息:
任何有关下一步尝试的建议将不胜感激。
python-3.x - 如何使用按钮关闭 AIY 语音套件
我将以下代码用于 AIY VOICE KIT 谷歌助手。该套件使用树莓派来运行谷歌助手。所以基本上你可以建立自己的迷你谷歌主页并控制其他树莓派或任何与 python 对话的东西。我用内置的 python 演示设置它,这样当我按下 pi 顶部的按钮时,我就可以用麦克风与谷歌交谈。这有点像用按钮说“OK google”。
程序运行良好。但是,如果不连接到桌面,就无法关闭它。我想修改程序,如果我按住按钮十秒钟,它将关闭。如果这有什么不同,我将使用树莓派零来运行它。谁能帮我?
google-aiy - 如何使用 AIY Vision Bonnet 将相机旋转 90 度?
由于我正在构建的项目的硬件限制,我需要将相机旋转设置为 90 度。
我尝试过使用 PiCamera 示例并设置camera.rotation = 90
. 正确旋转预览,但推理停止工作。
设置camera.rotation = 180
有效且不会破坏推理。
opencv - 在珊瑚板上运行示例和珊瑚相机时出现未知格式错误
我正在运行来自谷歌珊瑚的例子。他们在我的珊瑚板上工作得很好。然后我按照这篇文章修改了示例以增加相机的 fps 输出。
平台详情:
该示例使用 USB 相机(标准相机)运行良好,但使用珊瑚相机会导致以下错误。(在系统日志中可见)
产生错误的步骤
- git 克隆https://github.com/deepanshu-yadav/coral_bug.git
- ./download_models.sh
- cd opencv
- ./install_requirements.sh
- python3检测.py
总而言之,它只读取第一帧,从不显示后续帧。
python - 如何从 keras 模型中删除层以用作创建另一个模型的基线
我需要使用 Keras 中的预训练模型(keras.applications.VGG16)作为从它的第一层创建另一个模型(用于进行迁移学习)的基线。最终目标是冻结和导出模型,以便在带有 AIY 视觉套件的树莓派上部署。
我尝试了以下常用方法:
我也在尝试使用:
我调用 pop() n 次,其中“n”是我想要摆脱的最终层数。
它似乎在这两种情况下都有效,当我使用 new_model.summary() 它只显示所需的 VGG16 模型的第一层以及为自定义添加的新层,但是当导出模型并为 tf-lite 编译它时,编译器返回:
没有足够的设备内存来运行模型
这很奇怪,因为生成的模型(.pb 文件和层数)比手动定义的可以正确导入的其他模型更小,在分析 tensorboard 并将 .pb 文件导出为文本后,我发现原始模型正在也导出(所有层,即使是未使用的层,也被 pop() 删除)而不仅仅是新层
(如在 tensorboard 中看到的,有 2 个并行模型,右侧是所需的模型,但原始模型的原始层仍显示在左侧,并且原始模型的一部分存在于导出的 .pb 文件中)
我的问题是我怎样才能明确地从 keras.applications.VGG16 模型中删除未使用的层,只保留第一层 + 新的自定义层?使用 pop() 没有奏效,也尝试了 del 层(在 for 循环中)不成功。
或者我还有什么其他选择可以使用预训练模型作为基线,只保留它的第一层,然后将它连接到其他一些自定义层。
python - 如何为 Google ay vision kit 编译基于 keras.applications 的模型(用于迁移学习)
我已经尝试了 2 年(不是连续的,转移到其他事情然后回去)在视觉工具包中编译和运行基于 keras.applications 的模型,我尝试了很多方法都没有成功(甚至忘记了一些),问了一些问题在论坛中,在官方项目 repo 中,堆栈溢出等没有运气,例如:
- https://github.com/google/aiyprojects-raspbian/issues/698,
- https://github.com/google/aiyprojects-raspbian/issues/518 ,
- 如何从 keras 模型中删除层以用作创建另一个模型的基线
- https://github.com/keras-team/keras/issues/6464#issuecomment-670829431
在问了许多不同的问题后,我想可能直接发布我的用例并直接询问可能更有希望:
我需要编译并运行基于 keras.applications 的模型才能在 aiy 视觉套件中运行它,我知道设备是有限的,所以我正在尝试使用文档说视觉套件支持的模型:MobilenetV2 和我'正在通过冻结一些层并从 keras.applications.MobileNetV2 中删除其他层进行迁移学习,然后添加自定义可训练层,以进行测试,我也在尝试 VGG16,过去有很多问题,但最近的问题是:
即使只使用预训练模型的第一层并丢弃其余部分(导出的 .pb 文件很小,大约 2.5 mb)我得到(对于 vgg16,这发生在我的计算机上编译时,而不是在树莓设备中) : 没有足够的设备内存来运行模型。
对于 MobileNetv2,即使文档说它受支持,我也会得到:检查失败:other_op->type == OperatorType::kTensorFlowMerge
对我的案子有什么建议吗?还是根本不可能在视觉套件中运行基于 keras.applications 的模型?如果不可能,是否可以将诗人 mobilenet .pb 文件的 tf 与 keras 输出层结合起来并编译那个?
真的很感激对此的一些帮助,或者至少是一个明确的帮助:“不,这是不可能的”,所以我不会继续追求不可能的事情。
python - picamera.exc.PiCameraMMALError 的 Raspberry Pi 错误:无法启用连接:资源不足
在涉及 RPi 相机的 Raspberry Pi Zero W 上运行程序时,我遇到了一个问题。这是基于 AIY 套件中的 Joy Detector Demo。通常,它会根据相机的面部输入(情绪)改变 LED 颜色并发出噪音,但我还添加了一个部分,可以将欢乐程度流向 ThingSpeak。
预期的输出是程序运行,使用相机,而不是出现以下消息:
如果我需要从这些 python 文件中添加代码,请告诉我,但我最好的选择是它太密集了。使用 python 3.7。
google-aiy - 如何让 GPIO 扩展引脚与输入设备(例如距离传感器)一起工作?
我正在尝试将 HC-SR04 距离传感器与 AIY 语音套件一起使用。我使用了下图链接中的设置,除了使用阀帽 PIN_A 和 PIN_B 而不是 RPi GPIO23 和 24,我使用了 1000 欧姆和 2000 欧姆电阻器作为分压器(而不是 330 和 470)。
这是我的脚本:
当我运行它时,我收到以下错误:
回溯(最后一次调用):文件“sensor_demo.py”,第 6 行,传感器 = DistanceSensor(echo=PIN_A, trigger=PIN_B) 文件“/usr/lib/python3/dist-packages/gpiozero/devices.py” ,第 124 行,调用 self = super(GPIOMeta, cls).call(*args, **kwargs) 文件“/usr/lib/python3/dist-packages/gpiozero/input_devices.py”,第 856 行,在 init 部分=partial, ignore=frozenset({None}), pin_factory=pin_factory 文件“/usr/lib/python3/dist-packages/gpiozero/input_devices.py”,第 277 行,在 init pin_factory=pin_factory) 文件“/usr/lib /python3/dist-packages/gpiozero/mixins.py”,第 197 行,在 init super(EventsMixin, self).init(*args, **kwargs) 文件“/usr/lib/python3/dist-packages/gpiozero/ input_devices.py”,第 103 行,在 init self.pin.pull = pull File “/usr/lib/python3/dist-packages/gpiozero/pins/init.py", 第 337 行, in lambda self, value: self._set_pull(value), File "/home/pi/AIY-projects-python/src/aiy/pins.py", 第 605 行, in _set_pull '只上拉现在支持 (%s)' % pull) gpiozero.exc.PinFixedPull: 现在只支持上拉(下)
当我直接在 RPi 1 B+ 上运行它(使用 RPi GPIO 引脚)时,它工作正常,所以我认为它与引擎盖上的 GPIO 扩展引脚有关,尤其是当它们用于输入时,比如这里,这里,在这里。
有什么方法可以使用 GPIO 扩展引脚,还是我必须将 RPi 0 开箱即用并使用它的引脚?