问题标签 [google-cloud-tpu]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
machine-learning - Colab TPU 错误 - InvalidArgumentError:TPU 不支持的数据类型:double,由输出 cond_8/Merge:0 引起
我正在尝试使用 TPU 在 google colab 上进行一些基本的字符分类。我收到以下错误:
我不知道问题是什么,因为我在创建 numpy 数组时使用了 float32。我也不知道 cond_8/Merge:0 指的是什么。我加载的输入文件是一个 JSON 数组,代表很多 28x28 灰度图像
我已经尝试注释掉除第一个输入层之外的所有层,问题仍然存在!我的代码是:
tensorflow - TF1.14][TPU]无法在使用 TPU 的 Colab 上使用自定义 TFrecord 数据集
我创建了一个包含元素及其相应标签的 TFRecord 数据集文件。我想用它在 Colab 上使用免费的 TPU 训练模型。我可以加载 TFRecord 文件,甚至可以运行迭代器来查看内容,但是,在纪元开始之前,它会抛出以下错误-
据我了解,它需要 TPU 存储桶上的 TFRecord 文件,我不知道如何在 Colab 上执行此操作。如何直接在 Colab TPU 上使用 TFRecord 文件?
python - BERT 在 colab 上使用 TPU 上的 Estimator 进行微调 TypeError: *=: 'NoneType' 和 'int' 的不支持的操作数类型
我在 google 的 colab 上写了一个 jupyter-notebook 来微调(用于文本分类)一个我已经在阿拉伯语上预训练过的 BERT 版本。当训练开始时,我无法绕过这个错误。
我在github上按照google给出的notebook
模型构建代码:
错误代码:
参数和其余代码都在这个 colab 笔记本的共享副本中:colab_link
google-colaboratory - 没有注册 OpKernel 以支持节点 TPUReplicateMetadata 使用的 Op 'TPUReplicateMetadata'
当我运行以下 .ipynb 时:
https://colab.research.google.com/drive/1DpUCBm58fruGNRtQL_DiSVbT90spdZgm
我有:
没有注册 OpKernel 以支持节点 TPUReplicateMetadata 使用的 Op 'TPUReplicateMetadata'(在 /usr/local/lib/python3.6/dist-packages/tensorflow_core/python/framework/ops.py:1748 定义)具有以下属性:[num_cores_per_replica =1,use_tpu=true,num_replicas=8,computation_shape=[],host_compute_core=[],device_assignment=[],_tpu_replicate="cluster",padding_map=[],topology="",step_marker_location="STEP_MARK_AT_ENTRY",allow_soft_placement= false] 注册设备:[CPU, XLA_CPU]
我已经在 github 中问过这个问题: https ://github.com/tensorflow/tensorflow/issues/33307
但开发商表示不允许问这样的问题。
非常感谢您的帮助~!
tensorflow - Colab TPU 错误 InvalidArgumentError:无法分配设备进行操作
在 google colab 中使用 TPU 时,出现以下错误
InvalidArgumentError:无法为操作 Adam/iterations/IsInitialized/VarIsInitializedOp 分配设备:{{node Adam/iterations/IsInitialized/VarIsInitializedOp}} 已明确分配给 /job:worker/replica:0/task:0/device:TPU:0但可用的设备是 [ /job:localhost/replica:0/task:0/device:CPU:0, /job:localhost/replica:0/task:0/device:XLA_CPU:0 ]。确保设备规范引用了有效的设备。[[亚当/迭代/IsInitialized/VarIsInitializedOp]]
tensorflow - 使用 GOOGLE COLAB TPU 在 IMAGENET 上训练 VGG-16 模型需要多长时间?
只是好奇,使用 GOOGLE COLAB TPU 在 IMAGENET 上训练 VGG16 模型需要多长时间?如果有人可以向我解释他们为得到答案所做的计算,那就太好了!
tensorflow - Keras:TPU 模型的所有操作必须具有恒定的形状
我正在使用预训练的 keras 模型,我想通过 Google Colaboratory 在 TPU 上运行它,但出现以下错误:
ValueError:图层在非批量维度中具有可变形状。TPU 模型对于所有操作必须具有恒定的形状。
您可能必须为 RNN/TimeDistributed 层指定“input_length”。
层:输入形状:[(None, 128, 768), (None, 1)] 输出形状:(None, None, 768)
我正在使用keras-xlnet。据我了解,按照此处和此处的说明编译模型时,TPU 需要具有固定的批量大小。
模型从检查点加载:
然后编译模型(经过一些更改):
然后,模型被加载到 TPU,出现错误:
有没有办法可以在编译时修复批量大小以消除上述错误?还是问题完全不同?
google-cloud-platform - 创建 TPU 节点时的“IP 地址范围”是什么?
创建 TPU 节点时的“IP 地址范围”是什么?
它总是给出以下错误;
:已超出配额限制“TPUV3sPerProjectPerRegionForTPUAPI,TPUV3sPerProjectPerZoneForTPUAPI”。限制:区域 us-central1,区域 us-central1-a 中的 0,0。