问题标签 [tpu]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
keras - 残差神经网络模型在 google colab tpu 硬件上运行很慢?
我在 keras 中的 Google Colab 上为 cifar10 数据集制作了一个残差神经网络模型,但它在 TPU 硬件上运行非常缓慢。
我有另一个在 google colab 上运行良好的常规卷积神经网络。该模型使用 keras Sequential API,而残差神经网络使用 Functional API,不确定是否是问题所在。我已经尝试过更改批量大小,但没有帮助。我的程序的链接如下。
预计每个 epoch 至少在一分钟内完成(通常最多大约 10 秒),但似乎每个 mini-batch 需要一整分钟才能完成(每个 epoch 有很多 mini-batch)。
google-colaboratory - 自 6 月 14 日以来,Keras 模型在 TPU 上运行不佳
我注意到此代码自 6 月 14 日以来无法运行,因为它说:“模型”对象没有属性“目标张量”。
我在https://colab.research.google.com/github/tensorflow/docs/blob/master/site/en/guide/distribute_strategy.ipynb#scrollTo=eQ1QESxxEbCh之后更改了另一种使用 TPU 分发策略的方式
但是这样,我需要设置一个validation_fre参数,这会显着减慢整个训练过程。我该如何处理这个问题?
python-3.x - 在 Google Colab 中使用 Keras 和 TPU 丢失会话
我一直在尝试让 TPU 为分类项目工作。数据集很大,~150gb,所以我不能把它全部加载到内存中。因此我一直在使用 Dask。Dask 不直接与 tf.Dataset 集成,所以我必须创建一个受并行化 tf.data.Dataset.from_generator启发的加载器
将 .fit 替换为:
测试代码:
但是当使用 .fit 和 TPU 时,会话会丢失:
python - 具有额外 4 个密集层的模型的训练时间与没有的相同
我正在尝试对产生无意义预测的模型进行故障排除。在此过程中,我添加了另一个密集层,并且火车时间与没有它时保持相同。所以我添加了 4 x 512 个神经元密集层,时间是一样的..
我使用 TPU v3,但仍然 - 计算 4 个额外的完全连接的网络,每个网络有 512 个神经元,我预计需要一些额外的时间。
任何人都可以请帮助解释这一点,或者至少给出一个调查的想法
编辑: LSTM + 1 Dense 的可训练参数数 = 4 百万;LSTM + 4 密集 = 5 百万
android - TPU:有没有办法在安卓设备中使用 Coral USB 加速器?
我想在 Android 设备中使用 USB Coral 加速器在我的 Android 应用程序中使用 CNN。可以使用吗?如果你们知道的话。请告诉我。谢谢。
python - 无法识别 Coral/Google Edge TPU USB 加速器,Virtualbox 解决方法
我有一个新的 Coral/Google Edge TPU USB 加速器。几天来,我没有太多运气让它继续下去。我试过了
- 裸机 Intel、AMD 和 RaspberryPi3+ 上的 Ubuntu 18.04
- Ubuntu 18.04 作为具有虚拟化 Global Unichip 设备的 KVM 来宾
- Ubuntu 18.04 作为具有虚拟化 Global Unichip 设备的 Virtualbox 来宾
在所有情况下,鸟类检测示例应用程序都失败并显示各种错误消息,所有这些都归结为设备未被识别的事实。请注意,根据我正在阅读的内容,该设备应该在 lsusb 中作为 Google Inc. 之一出现,但在上述所有情况下,我得到的只是这个(各种变化,取决于机器):
# lsusb
Bus 006 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub
Bus 005 Device 003: ID 046d:c05a Logitech, Inc. M90/M100 Optical Mouse
Bus 005 Device 002: ID 04f3:0103 Elan Microelectronics Corp. ActiveJet K-2024 Multimedia Keyboard
Bus 005 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
Bus 004 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub
Bus 003 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
Bus 002 Device 002: ID 1a6e:089a Global Unichip Corp. <<<<<<<<<<<<<<<<<<<
Bus 002 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub
Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
当我看到 Koji 的这篇文章时,我已经怀疑是 DOA 设备了:[ https://dev.to/kojikanao/coral-edgetpu-usb-with-virtualbox-57e1][1]
它归结为在 Virtualbox 上使用 Ubuntu,并为 Global Unichip Corp. 条目创建两个设备过滤器。然后,需要通过将 USB Vendor ID 更改为 18d1 并将产品 ID 更改为 9302 来将第二个 Global Unichip 条目变成伪造的 Google 设备。一旦我这样做了,设备就被识别出来了,示例应用程序愉快地分类了 parakeets。这导致了几个问题:
- 可以在裸机 Ubuntu 安装和/或作为 KVM 来宾运行的设备上实现上述 fakeroo 吗?如何?
- 有没有办法快速(而不是启动一个 python 应用程序并看到它失败)确定 USB Edge TPU 设备正在工作?
我所有的虚拟机都在使用 5.1 内核的 Centos 7 主机的 KVM 上运行。VirtualBox 不能与 KVM 相处,我不期待将我所有的 VM 迁移到 Virtualbox,并且不期待对内核执行 KVM 脑叶切除术以启动 Virtualbox,只是为了让 USB Edge TPU 工作。想法?
PS:请放轻松,我是 Stackoverflow 上的 FNG。
https://dev.to/kojikanao/coral-edgetpu-usb-with-virtualbox-57e1
google-cloud-platform - How to change the scope of existing VM in GCP?
I created a windows VM where I have the BERT master, SQUAD, and BERT-large model. I tried to run the squad using this:
It threw an error: googleapiclient.errors.HttpError: <HttpError 403 when requesting https://tpu.googleapis.com/v1alpha1/projects/projectname/locations/us-central1-a/nodes/testnode?alt=json returned "Request had insufficient authentication scopes.">
Is there a way to change the scope of existing VM to cloud-platform
after VM is created?
google-colaboratory - Colab TPU:TensorFlow '2.0.0-beta0' LinearClassifier .train 错误
尝试让 LinearClassifier 与 Colab TPU 一起运行。 https://www.tensorflow.org/versions/r2.0/api_docs/python/tf/estimator/LinearClassifier
TensorFlow 2.0 Estimator(LinearClassifier) 支持 TPUStrategy https://www.tensorflow.org/beta/guide/distribute_strategy#whats_supported_now_2
在没有 tpu_strategy 的情况下,LinearClassifier 按预期工作。 https://www.tensorflow.org/beta/guide/distribute_strategy#tpustrategy
将 tpu_strategy 添加为 LinearClassifier 的配置时,出现以下错误:
InvalidArgumentError:没有注册 OpKernel 以支持{{node input0}} 使用的 Op 'TPUReplicatedInput' 具有以下属性:[T=DT_DOUBLE,N=8] 注册设备:[CPU,XLA_CPU] 注册内核:[[input0]] https ://www.tensorflow.org/beta/guide/distribute_strategy#using_tfdistributetestrategy_with_estimator
这几天一直在吵架,这是怎么回事?
Colab 中的完全例外:
python - 使用高级 keras api 在 Tensorflow 中进行量化感知训练
我使用此 colab 中描述的过程构建了我的第一个 covnet。现在我想在谷歌闪亮的新边缘 tpu 上运行模型。
但是根据此处描述的模型要求,我需要使用quantization-aware training (post-training quantization is not supported).
才能将模型转换为可以在 EdgeTPU 上使用的格式。
如何修改示例 colab 来进行这种量化感知训练?
tensorflow - TensorFlow 1.4:如何将 BoostedTreesClassifier 与 Colab TPU 结合使用
我有 BoostedTreesClassifier 的代码,它可以工作,但需要很长时间才能处理我提供的数据量和我选择的参数,即 max_depth https://www.tensorflow.org/api_docs/python/tf/estimator /BoostedTreesClassifier
我正在尝试在 Colab 中使用带有 TPU 的 BoostedTreesClassifier 估计器,使用 TPUEstimator https://www.tensorflow.org/api_docs/python/tf/contrib/tpu/TPUEstimator
TPUEstimator 是否可以使用 BoostedTreesClassifier?我看到只有神经网络可以与 Estimator/TPUEstimator https://www.tensorflow.org/guide/using_tpu一起使用
让 BoostedTreesClassifier 与 Colab TPU 一起工作的正确方法是什么?