问题标签 [tpu]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
google-colaboratory - 没有注册 OpKernel 以支持节点 TPUReplicateMetadata 使用的 Op 'TPUReplicateMetadata'
当我运行以下 .ipynb 时:
https://colab.research.google.com/drive/1DpUCBm58fruGNRtQL_DiSVbT90spdZgm
我有:
没有注册 OpKernel 以支持节点 TPUReplicateMetadata 使用的 Op 'TPUReplicateMetadata'(在 /usr/local/lib/python3.6/dist-packages/tensorflow_core/python/framework/ops.py:1748 定义)具有以下属性:[num_cores_per_replica =1,use_tpu=true,num_replicas=8,computation_shape=[],host_compute_core=[],device_assignment=[],_tpu_replicate="cluster",padding_map=[],topology="",step_marker_location="STEP_MARK_AT_ENTRY",allow_soft_placement= false] 注册设备:[CPU, XLA_CPU]
我已经在 github 中问过这个问题: https ://github.com/tensorflow/tensorflow/issues/33307
但开发商表示不允许问这样的问题。
非常感谢您的帮助~!
macos - Coral 开发板“mdt 设备”找不到任何设备
我正在关注 Coral 开发板入门指南 - 开发板入门 ( https://coral.withgoogle.com/docs/dev-board/get-started/ )。一切正常,直到这一步 -通过 MDT 连接到板的外壳。我等了大约5分钟,直到闪烁完成,终端提示返回给我,然后我尝试了命令:
mdt devices
终端什么也不返回。与指南所说的不同,它应该返回我的主板主机名和 IP 地址。我检查了 USB-C OTG 和 USB-C 电源线,它们都连接良好。
我也尝试过这个解决方案:https ://superuser.com/questions/1452786/coral-dev-board-not-recongized-on-mdt-shell 。我去了系统偏好设置下的网络,然后单击“+”图标,但我找不到 mendel 设备。
我正在使用在 macOS Catalina 上运行的 Macbook Pro。fastboot 和 mdt 命令都在工作。
python - Tensorflow 2.0 数据集 tensorflow.python.framework.errors_impl.InternalError:无法解析张量原型
我正在尝试实现 ESPCN(https://arxiv.org/abs/1609.05158)的 TensorFlow 2.0,当我在 Google Colab 上运行代码并将硬件加速器设置为 TPU 时出现此错误:
数据集是由这个函数构造的
和get_image_from_file
功能:
数据集在没有该experimental_distribute_dataset
函数的情况下完美运行,所以我猜在转换代码时出了点问题。但是,由于我是 TPU 的新手,很难找到原因……谁能给我一些帮助?
- 完整的 python 代码,以防您需要更多检查代码来定位错误:https ://gist.github.com/gs18113/5f24d05104d11e4a0d928f8876eaff67
我创建了一个 github 存储库并将其克隆到 Colab 上以运行它。
提前感谢您,并为我糟糕的英语感到抱歉。
python-3.x - TPU 不支持的数据类型:double,由输出 IteratorGetNext:0 引起
我正在使用tf.keras构建一个简单的深度学习模型,结构如下:
并在 Colab 上使用了 TPU:
使用新的 TPU API 构建和拟合模型:
但是,奇怪的错误仍然存在并抱怨错误的数据类型。
完整的跟踪堆栈:
有谁知道这里发生了什么?
提前致谢。
tensorflow - 如何在 TensorFlow 自定义训练循环中使用 TPU?
我不使用 Keras。我想在 Google Colab 上使用 TPU。问题:
- 可以
tf.session
自动使用 TPU 吗? - 在 TPU 计算中
tf.contrib.tpu.TPUDistributionStrategy
,tf.contrib.tpu.rewrite
,做什么?tf.contrib.cluster_resolver.TPUClusterResolver
它们都是必需的吗?
tensorflow - Colab TPU 错误 InvalidArgumentError:无法分配设备进行操作
在 google colab 中使用 TPU 时,出现以下错误
InvalidArgumentError:无法为操作 Adam/iterations/IsInitialized/VarIsInitializedOp 分配设备:{{node Adam/iterations/IsInitialized/VarIsInitializedOp}} 已明确分配给 /job:worker/replica:0/task:0/device:TPU:0但可用的设备是 [ /job:localhost/replica:0/task:0/device:CPU:0, /job:localhost/replica:0/task:0/device:XLA_CPU:0 ]。确保设备规范引用了有效的设备。[[亚当/迭代/IsInitialized/VarIsInitializedOp]]
tensorflow - 使用 GOOGLE COLAB TPU 在 IMAGENET 上训练 VGG-16 模型需要多长时间?
只是好奇,使用 GOOGLE COLAB TPU 在 IMAGENET 上训练 VGG16 模型需要多长时间?如果有人可以向我解释他们为得到答案所做的计算,那就太好了!
tensorflow - Keras:TPU 模型的所有操作必须具有恒定的形状
我正在使用预训练的 keras 模型,我想通过 Google Colaboratory 在 TPU 上运行它,但出现以下错误:
ValueError:图层在非批量维度中具有可变形状。TPU 模型对于所有操作必须具有恒定的形状。
您可能必须为 RNN/TimeDistributed 层指定“input_length”。
层:输入形状:[(None, 128, 768), (None, 1)] 输出形状:(None, None, 768)
我正在使用keras-xlnet。据我了解,按照此处和此处的说明编译模型时,TPU 需要具有固定的批量大小。
模型从检查点加载:
然后编译模型(经过一些更改):
然后,模型被加载到 TPU,出现错误:
有没有办法可以在编译时修复批量大小以消除上述错误?还是问题完全不同?
tensorflow - AbortedError:找不到会话 902faae618c6a822
这是我的代码,它不能与 tpu 一起使用,但它在 google colab 中以 cpu/gpu 模式工作,我不知道为什么,有人知道原因吗?
我的 tensorflow 版本是 1.15.0
,x_train.shape 是 (13887, 3000),y_train.shape 是 (13887,8)
,
num_features = 301+1
sequence_length = 3000
embedding_dimension = 1000
非常感谢!
错误如下
tensorflow - 在珊瑚开发板中使用 cpp tflite API
我正在尝试使用 cpp tflite API 来查询开发板上的模型。该代码已使用 USB 棒进行了测试,并且可以正常工作,但是,在开发板上,我在此行出现错误:
这是错误:
相同的模型使用 python API 可以正常工作。
开发板上是否支持 tflite cpp API?
在开发板上,我有最新版本(12-1),这就是我为构建 tflite lib 所做的:
在本地为 arm64 构建 tflite(使用构建通用脚本,不像这里描述的那样)我使用了分支 v.2.0。*原因是在开发板上构建的虚拟内存和磁盘空间不足。
在开发板上安装了 flatbuffer。
编辑: 我能够从开发板上的 tensorflow 分支 v2.0 构建 tflite,更新为链接到本地构建的 lib ,仍然得到相同的错误......
编辑2: 我能够用tflite编译形式tf-r1.15重现相同的行为。我还尝试按照@Nam Vu 的建议添加可用 tpus 数量的打印。所以这是一个代码片段:
导致: