问题标签 [tpu]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - Coral Edge TPU 编译器无法转换 tflite 模型:模型未量化
我正在尝试使用 TensorFlow lite 部署一个简单的测试应用程序。我想在我的设备上使用 Coral Edge TPU Stick,所以我必须进行量化感知训练。我想拟合一个函数f(x) = 2 x - 1
。我的训练代码如下所示:
作为输出,我得到(省略了 keras 和 CUDA 特定的输出):
这里需要注意两点:模型是合理的,它应该输出接近 19 的值。显然,它还使用了量化权重。如果我不启用量化感知训练,这两个变量将不会出现。
此外,此模型可以由 tf-lite 解释器实例加载和执行。但是,为了能够在 TPU 支持下使用它,我必须将它与tpuedge_compiler
. 安装后,我执行
不幸的是,它似乎无法识别模型是量化的。它输出
我曾尝试在线编译它,但也失败了。这是一个错误还是我在训练/转换过程中搞砸了?另外,也许有工具可以验证我是否真的使用了量化模型?
谢谢!
python - 如何通过一次加载上下文来进行预测,并针对 BERT 神经网络模型中的问题动态预测答案?
我创建了一个工作流,要求用户发布问题以对问题进行预测。我使用BERT 神经网络模型进行预测,并使用SQUAD 2.0使用 TPU 进行训练。当我在以下 JSON 结构的上下文中加载一两个段落时:
并将其发送以预测答案,每个单独的问题需要一分钟。以下是我注意到的事情: 上下文和问题被转换为 1 0 或 True False 然后预测开始。预测大约需要 20 秒或更短的时间。
如果我尝试将 5MB 的文本添加到上下文中,则需要整整两个小时才能转换为 1 0 或真假然后预测答案。
是否可以加载一次上下文并动态预测问题的答案?我使用run_squad.py。这些是我使用的标志:
keras - 在 Google Colab TPU 上训练 CNN 的最佳方法
我正在尝试在 Google Colab 上使用 Keras 和他们的 TPU 支持来训练一个 CNN(现在是 ResNet50)。Colab 上的 TPU 虚拟机的本地磁盘很小,因此我无法在其上放置训练图像。
我尝试将训练/测试图像上传到 Google 驱动器,但在 Colab 上从那里访问文件似乎相当慢。我设置了一个谷歌云存储(GCS)存储桶来上传数据。但是找不到关于如何将存储桶连接到 Keras 和 TPU 进行训练的好例子。
在TensorFlow网站上,他们建议只使用 GCS 作为文件系统。但是文件集必须使用“tf.io.gfile”进行访问。对于 Keras,这意味着什么?
Shakespeare TPU 示例展示了安装 GCS 存储桶并将其用于模型存储。所以这样我就可以挂载和引用存储桶。但它并没有告诉我如何使用 GCS 来提供训练数据。我找到的所有示例都使用了一些预定义的 Keras 图像集。
一些说明似乎表明 TPU 在其自己的独立服务器上运行,并且数据应该在 GCS 上以便 TPU 访问它。如果我运行 Keras 生成器,进行图像增强,并将这些信息提供给训练系统,这是否意味着我不断通过网络将图像下载到 Colab VM、修改它们,然后通过网络将图像发送到 TPU 服务器?
使用 TPU 在 Keras 上运行一个简单的 CNN 模型似乎相当复杂。我在这里缺少什么,正确的过程是什么?
任何有具体例子的人都会很棒..
tensorflow - 如何使用 TPU 诊断内存不足错误
我正在尝试在 TPU 上训练 u-net 的变体,似乎有 3 个操作使用 24 gigs 的内存。鉴于网络很大,我无法知道它们在哪里。您如何确定这些不透明的堆栈跟踪所指的实际操作?
machine-learning - Colab TPU 错误 - InvalidArgumentError:TPU 不支持的数据类型:double,由输出 cond_8/Merge:0 引起
我正在尝试使用 TPU 在 google colab 上进行一些基本的字符分类。我收到以下错误:
我不知道问题是什么,因为我在创建 numpy 数组时使用了 float32。我也不知道 cond_8/Merge:0 指的是什么。我加载的输入文件是一个 JSON 数组,代表很多 28x28 灰度图像
我已经尝试注释掉除第一个输入层之外的所有层,问题仍然存在!我的代码是:
google-cloud-platform - 无法在 GCP 上创建 pytorch cpu 映像
我正在尝试使用以下命令在 GCP 上创建一个抢占式 tpu 实例
这些命令崩溃并出现以下错误:
错误很明显,我没有读取该图像的权限。想知道的是如何访问这些图像?应该可以,因为该命令几乎是从 gcp 文档 [1] 中逐字复制的。
[1] https://cloud.google.com/deep-learning-vm/docs/pytorch_start_instance
tensorflow - 如何在本地 rtx gpu 的 tpu 上训练 keras 模型
我使用 keras 后端张量流。
我的本地电脑上有 RTX gpu,我想在 tpu(张量核心)上训练 keras 模型
有什么方法吗?
tensorflow - Edge TPU Compiler: ERROR: quantized_dimension must be in range [0, 1). Was 3
I'm trying to get a Mobilenetv2 model (retrained last layers to my data) to run on the Google edge TPU Coral.
I've followed this tuturial https://www.tensorflow.org/lite/performance/post_training_quantization?hl=en to do the post-training quantization. The relevant code is:
I've successfully generated the tflite quantized model but when I run the edgetpu_compiler (followed this page https://coral.withgoogle.com/docs/edgetpu/compiler/#usage) I get this output:
The input shape of the model is a 3 channel RGB image. Is possible to do full integer quantization on 3 channel images? I couldn't find anything saying that you can't either on TensorFlow and Google Coral documentation.
neural-network - TPU 训练在训练过程中冻结
我正在尝试使用 TPU v3-8 1.12 实例在 TF 1.12 中训练 CNN 回归网络。该模型成功地用 XLA 编译,开始了训练过程,但是在 1t epoch 的一半迭代之后,有些地方冻结了,什么也不做。我找不到问题的根源。
python - TPU 卡在 Google Colab 中
我正在尝试使用 GoogleColab 在 TPU 上运行一些代码。
我从 Tensorflow 教程中获得灵感。
它按应有的方式初始化 TPU,它似乎运行完美,直到它到达训练的第一个 epoch,然后它就停止了。
什么都没有发生,它不会中断,RAM 没有满,但它永远不会更进一步。
我已经多次重新启动环境,但没有任何改变。
以及模型的定义:
我看到以下内容:
它似乎正在工作,但即使过了一个多小时,也没有发生任何事情。
根据 Google Cloud Platform(当我尝试使用自己的 TPU 时),TPU 的使用率为 0%。