问题标签 [tensorflow-hub]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - Tensorflow Hub:导入模型时卡住了
尝试使用以下代码使用 Tensorflow Hub 导入一些模型:
让我的笔记本卡住了。在卡住之前出现的唯一日志行是:
INFO:tensorflow:使用 /tmp/tfhub_modules 缓存模块。
如何解开它并允许我从 Tensorflow Hub 导入模型?
tensorflow - 尝试通过 Tensorflow Serving 使用 Universal Sentence Encoder Lite/2
我使用 Universal Sentence Encoder Lite 版本创建了 SavedModel。如果我使用 tf.saved_model.loader.load 加载 SavedModel,它工作得非常好。
但是,如果我尝试使用 Tensorflow Serving 为模型提供服务,则会收到以下错误:
"error": "indices[3] = 1 is not in [0, 1)\n\t [[Node: lite_module_apply_default/Encoder_en/KonaTransformer/ClipToMaxLength/GatherV2_1 = GatherV2[Taxis=DT_INT32, Tindices=DT_INT64, Tparams=DT_INT64 , _output_shapes=[[?]], _device="/job:localhost/replica:0/task:0/device:CPU:0"](_arg_qsph_v_0_7, lite_module_apply_default/Encoder_en/KonaTransformer/ClipToMaxLength/Reshape, lite_module_apply_default_1/Encoder_en/KonaTransformer /SequenceMask/Const)]]"
为什么会发生这种情况?
蟒蛇版本:3.6
张量流版本:1.9.0
tensorflow_hub 版本:0.1.1
使用张量流/服务泊坞窗 1.11
python - create_module_spec - tfhub
我正在尝试创建一个简单的音频识别来发现关键词。由于我的数据集很小,我正在执行迁移学习。这就是图表的外观。按照这个链接我创建了一个模块。这是代码
尽管它确实执行并创建了一个“test_module”文件夹。
我怎么有几个问题
变量文件夹为空。不确定这是否应该是这样的?
input_ten=tf.placeholder(tf.float32, shape = (1, 98, 40))
这个对吗 ?98X48 是图像大小,第一个元组通常代表批量大小。它应该保持为 '1' 还是未知的批量大小 'None' ?将模块加载到脚本后
高度,宽度 = hub.get_expected_image_size('test_module')
给我一个错误。
tensorflow-datasets - ValueError:model_fn 不带标签,但 input_fn 返回标签
我正在使用 tensorflow-hub、tensorflow-estimators 和 tensorflow-data 构建模型分类。
我的火车函数正在返回数据集,其model_fn
定义如下:
与Damien的代码非常相似。
代码环境为:Python 2,Google cloud datalab,tf.version
为1.12。被触发的错误model_fn
是不期望标签参数(可能由tf-data
数据集生成)。返回数据集的model_fn
给定签名应该是什么?input_fn
请提出任何想法。
非常感谢,
埃拉兰
tensorflow - 为重新训练的 Tensorflow Hub 模块提供新功能
我已经使用估计器和 TF Hub Elmo 词嵌入 + 新功能训练了一个 Tensorflow 模型,并且一直在尝试让它与 Tensorflow Serving 一起用于预测。当我尝试运行预测时,出现以下错误:
以下是重现这些步骤所需的所有相关文件:
我在 signature_name 中尝试了不同的选项,模型以 Docker 容器命名,我发现它解决了其他人的一些问题。为了节省时间,这里是带有训练模型和检查点文件的存储库:带有模型文件的存储库
任何帮助,将不胜感激!
tensorflow - tensorflow hub的问题:表未初始化
当我遇到以下问题时,我正在尝试将 tf_hub 用于universal-sentence-encoder-large:
TensorFlow 似乎认为我没有运行 init op,但实际上,我已经运行了 init op:
其他 tf_hub 模型(如elmo
.
tensorflow - 使用 base 64 输入进行呼叫预测时出错
我正在使用 Tensorflow 集线器的示例导出 save_model 以使用 Docker 与 Tensorflow 一起服务。(https://github.com/tensorflow/hub/blob/master/examples/image_retraining/retrain.py)
我只是按照互联网上的一些说明修改了 export_model,如下所示
问题是当我尝试使用邮递员调用 api 时出现此错误
我是否需要修改再训练过程以便它可以接受 base64 输入?
tensorflow - TensorFlow Hub 模块重用
假设我想使用module
TF Hub 中的特定(文本嵌入)来创建两个不同的models
,然后我想导出并提供服务。
选项 1:
导入module
for each model
,将每个分类器放在顶部,然后导出 2 models
;在各自的 docker 容器中提供服务。这些models
包含底层嵌入模块和分类器。
选项 2:
为module
自身服务,并使其输出转到 2 个不同的服务models
,它们本身不包含嵌入。(这甚至可能吗?)
我的计算机科学背景告诉我,选项 2更好,因为我们正在为两个模型重新使用原始嵌入模块,同时将模型本身与嵌入模块解耦。
然而,从实际的角度来看,当数据科学家在编码时,他们正在导入module
并在其上使用分类器进行训练,因此必须在model
没有底层嵌入的情况下导出自身变得很麻烦。
谁能指出我正确的方向?希望我的问题是有道理的,我自己不是数据科学家,我更多地来自开发背景。
谢谢
tensorflow - tensorflow hub imagenet分类模块输出类的定义是什么
例如inception_resnet_v2模块,在这个页面中,上面说有 1001 个类,但我找不到这个类索引 1001 个类的定义
python - 使用 ELMo 嵌入段落
我试图了解如何为 ELMo 矢量化准备段落。
该文档仅显示了如何同时嵌入多个句子/单词。
例如。
据我了解,这将返回 2 个向量,每个向量代表一个给定的句子。我将如何准备输入数据以矢量化包含多个句子的整个段落。请注意,我想使用我自己的预处理。
可以这样做吗?
或者可能是这样?