问题标签 [tensorflow-hub]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
2930 浏览

python - Tensorflow Hub:导入模型时卡住了

尝试使用以下代码使用 Tensorflow Hub 导入一些模型:

让我的笔记本卡住了。在卡住之前出现的唯一日志行是:

INFO:tensorflow:使用 /tmp/tfhub_modules 缓存模块。

如何解开它并允许我从 Tensorflow Hub 导入模型?

0 投票
1 回答
291 浏览

tensorflow - 尝试通过 Tensorflow Serving 使用 Universal Sentence Encoder Lite/2

我使用 Universal Sentence Encoder Lite 版本创建了 SavedModel。如果我使用 tf.saved_model.loader.load 加载 SavedModel,它工作得非常好。

但是,如果我尝试使用 Tensorflow Serving 为模型提供服务,则会收到以下错误:

"error": "indices[3] = 1 is not in [0, 1)\n\t [[Node: lite_module_apply_default/Encoder_en/KonaTransformer/ClipToMaxLength/GatherV2_1 = GatherV2[Taxis=DT_INT32, Tindices=DT_INT64, Tparams=DT_INT64 , _output_shapes=[[?]], _device="/job:localhost/replica:0/task:0/device:CPU:0"](_arg_qsph_v_0_7, lite_module_apply_default/Encoder_en/KonaTransformer/ClipToMaxLength/Reshape, lite_module_apply_default_1/Encoder_en/KonaTransformer /SequenceMask/Const)]]"

为什么会发生这种情况?

蟒蛇版本:3.6

张量流版本:1.9.0

tensorflow_hub 版本:0.1.1

使用张量流/服务泊坞窗 1.11

0 投票
1 回答
154 浏览

python - create_module_spec - tfhub

我正在尝试创建一个简单的音频识别来发现关键词。由于我的数据集很小,我正在执行迁移学习。这就是图表的外观。按照这个链接我创建了一个模块。这是代码

尽管它确实执行并创建了一个“test_module”文件夹。

我怎么有几个问题

  1. 变量文件夹为空。不确定这是否应该是这样的?

  2. input_ten=tf.placeholder(tf.float32, shape = (1, 98, 40)) 这个对吗 ?98X48 是图像大小,第一个元组通常代表批量大小。它应该保持为 '1' 还是未知的批量大小 'None' ?

  3. 将模块加载到脚本后

    高度,宽度 = hub.get_expected_image_size('test_module')

    给我一个错误。

0 投票
0 回答
247 浏览

tensorflow-datasets - ValueError:model_fn 不带标签,但 input_fn 返回标签

我正在使用 tensorflow-hub、tensorflow-estimators 和 tensorflow-data 构建模型分类。

我的火车函数正在返回数据集,其model_fn定义如下:

与Damien的代码非常相似。

代码环境为:Python 2,Google cloud datalab,tf.version为1.12。被触发的错误model_fn是不期望标签参数(可能由tf-data数据集生成)。返回数据集的model_fn给定签名应该是什么?input_fn

请提出任何想法。

非常感谢,

埃拉兰

0 投票
1 回答
766 浏览

tensorflow - 为重新训练的 Tensorflow Hub 模块提供新功能

我已经使用估计器和 TF Hub Elmo 词嵌入 + 新功能训练了一个 Tensorflow 模型,并且一直在尝试让它与 Tensorflow Serving 一起用于预测。当我尝试运行预测时,出现以下错误:

以下是重现这些步骤所需的所有相关文件:

我在 signature_name 中尝试了不同的选项,模型以 Docker 容器命名,我发现它解决了其他人的一些问题。为了节省时间,这里是带有训练模型和检查点文件的存储库:带有模型文件的存储库

任何帮助,将不胜感激!

0 投票
2 回答
1529 浏览

tensorflow - tensorflow hub的问题:表未初始化

当我遇到以下问题时,我正在尝试将 tf_hub 用于universal-sentence-encoder-large:

TensorFlow 似乎认为我没有运行 init op,但实际上,我已经运行了 init op:

其他 tf_hub 模型(如elmo.

0 投票
0 回答
90 浏览

tensorflow - 使用 base 64 输入进行呼叫预测时出错

我正在使用 Tensorflow 集线器的示例导出 save_model 以使用 Docker 与 Tensorflow 一起服务。(https://github.com/tensorflow/hub/blob/master/examples/image_retraining/retrain.py

我只是按照互联网上的一些说明修改了 export_model,如下所示

问题是当我尝试使用邮递员调用 api 时出现此错误

我是否需要修改再训练过程以便它可以接受 base64 输入?

0 投票
1 回答
159 浏览

tensorflow - TensorFlow Hub 模块重用

假设我想使用moduleTF Hub 中的特定(文本嵌入)来创建两个不同的models,然后我想导出并提供服务。

选项 1: 导入modulefor each model,将每个分类器放在顶部,然后导出 2 models;在各自的 docker 容器中提供服务。这些models包含底层嵌入模块和分类器。

选项 2:module自身服务,并使其输出转到 2 个不同的服务models,它们本身不包含嵌入。(这甚至可能吗?)

我的计算机科学背景告诉我,选项 2更好,因为我们正在为两个模型重新使用原始嵌入模块,同时将模型本身与嵌入模块解耦。

然而,从实际的角度来看,当数据科学家在编码时,他们正在导入module并在其上使用分类器进行训练,因此必须在model没有底层嵌入的情况下导出自身变得很麻烦。

谁能指出我正确的方向?希望我的问题是有道理的,我自己不是数据科学家,我更多地来自开发背景。

谢谢

0 投票
1 回答
34 浏览

tensorflow - tensorflow hub imagenet分类模块输出类的定义是什么

例如inception_resnet_v2模块,在这个页面中,上面说有 1001 个类,但我找不到这个类索引 1001 个类的定义

0 投票
1 回答
1152 浏览

python - 使用 ELMo 嵌入段落

我试图了解如何为 ELMo 矢量化准备段落。

文档仅显示了如何同时嵌入多个句子/单词。

例如。

据我了解,这将返回 2 个向量,每个向量代表一个给定的句子。我将如何准备输入数据以矢量化包含多个句子的整个段落。请注意,我想使用我自己的预处理。

可以这样做吗?

或者可能是这样?