问题标签 [tensorflow-model-garden]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
199 浏览

python - 如何在 tensorflow 对象检测 API 中更改默认输出、输入张量名称?

默认情况下,Tensorflow 对象检测 API 具有输出张量名称num_detectionsdetection_boxesdetection_scoresdetection_classes。如何更改这些默认名称?不幸的是,我正在测试的推理平台不接受带下划线的张量名称。谢谢 ..

0 投票
1 回答
176 浏览

tensorflow - 冻结后存在 Batchnorm 层以从 DeeplabV3+ 模型进行推理,这样可以吗?

导出经过训练的模型后,BatchNorm 层仍然存在。我在某处读过这些应该被删除的推理,原因有两个:

  1. 网络输出可能有误
  2. 网提速

好吧,我怀疑 1。但第二个事实听起来合乎逻辑,所以我的问题是:那么如何过滤掉图层?

环境:来自 Tensorflow GitHub 并在 Tensorflow 1.15.3 上训练的模型。

二手出口:

摘录网络图:

0 投票
1 回答
210 浏览

tensorflow - 如何改进 DeeplabV3+ 分割边界/边缘?

我正在使用标准研究模型在 mobilenet_v3_large_seg 之上在 Tensorflow 1.15.3 中训练自定义数据集。总体上训练还可以,但是边界/边缘非常嘈杂,什么可能有助于改进检测具有更好边界的段?

0 投票
1 回答
1063 浏览

tensorflow - colab_utils.annotate(),注解格式

我正在关注 Tensorflow 笔记本进行少数镜头学习(https://colab.research.google.com/github/tensorflow/models/blob/master/research/object_detection/colab_tutorials/eager_few_shot_od_training_tf2_colab.ipynb#scrollTo=RW1FrT2iNnpy

在其中,我看到他们正在使用 colab_utils.annotate() 对图像进行注释。我无法理解他们使用的注释格式(如 YOLO 或 COCO 格式)。另一个问题是我们在绘制边界框时无法指定类,我必须记住我注释不同图像和类的顺序,以便以后可以通过代码添加它们。

如果有人能告诉我那种格式是什么,我就可以在我的电脑上本地注释图像,而不是在 COLAB 上,这将节省大量时间。

任何帮助,将不胜感激。问候

0 投票
1 回答
133 浏览

tensorflow2.0 - Bert分类器模型的量化

我目前正在尝试量化一个 bert-classifier 模型,但遇到了一个错误,我想知道目前是否支持这一点?为清楚起见,我问的是 tensorflow-model-garden 中的 BERT 分类器超类是否支持量化?在此先感谢您的帮助!

0 投票
0 回答
683 浏览

python - 安装 tensorflow 模型对象检测包会安装每个版本的 pandas

在按照此处的安装说明进行操作时,我的设备会尝试安装所有版本的 pandas。输出如下所示:

...

... ETC。

这感觉不对,并且需要很长时间才能运行。这是预期的行为吗?我究竟做错了什么?

0 投票
1 回答
799 浏览

python - 如何使用 tensorflow-nightly 和 tensorflow 对象检测研究模型构建 docker 镜像

由于目前在 Google Colab 上对tensorflow-nightly 的 GPU 支持已被破坏,因此我正在尝试构建自己的 docker 映像以进行开发。但是,当我object_detectiontensorflow/models夜间 tensorflow 包安装包时,它会被作为依赖项从object_detection setup.py.

我在 Google Colab 中遵循基本相同的步骤,但我的 tensorflow nightly 并没有在那里被覆盖,所以我不确定我错过了什么......

这是我的Dockerfile

我正在建造的:

第一个print()显示:

但第二个显示:


在 Google Colab 中,我执行的步骤基本相同:

之后

印刷2.5.0-dev20201201

所以不知何故,我的 Google Colab 步骤保留了我的夜间 Tensorflow 安装,而在 Docker 上它被 2.3.0 覆盖。

0 投票
0 回答
164 浏览

python-3.x - 如何使用 tensorflow 2 模型动物园在自定义对象检测器中创建检查点?

我目前一直在按照https://tensorflow-object-detection-api-tutorial.readthedocs.io/en/latest/training.html的教程从 tensorflow2 对象检测模型动物园训练一些模型。

当我想从一个检查点导出我的模型时,我产生了一个疑问,该检查点具有我正在寻找的全部损失。尽管如此,我发现我有 16 个检查点(只是最后五个),但只经过了 1500 步。不得不提的是,我每 100 步通过一个标志来保存一个检查点。所以我想知道是否:

它创建一个初始检查点,假设检查点 0,如果我想从第 1400 步导出模型,我应该采取第 15 个检查点

或者

它为未来的检查点创建一个“占位符”,即如果训练过程当前处于步骤1500,它准备存储下一个检查点。然后我应该只通过第 14 个检查站。

我留下一个参考图像,

在此处输入图像描述

在此处输入图像描述

在这个例子中,我有 16 个检查点,但只经过了 1500 个步骤。我选择每 100 步保存一个新的检查点。如果我想从步骤 1400 导出一个新模型,我应该导出第 14 个还是第 15 个?

任何帮助将非常感激。

0 投票
1 回答
160 浏览

python - 获得 Deeplab 对小/欠平衡类的更严格的分割结果

我已经在 CelebAMask-HQ 数据集 ( https://github.com/switchablenorms/CelebAMask-HQ ) 上训练了官方的 Tensorflow deeplab 模型 ( https://github.com/tensorflow/models/tree/master/research/deeplab ) ,拥有一个可以语义分割所有面部片段(例如眼睛、鼻子等)的模型。我在超参数设置上花费的时间很少,并使用默认设置:

我唯一调整的是类权重,其中我根据总数据集中属于每个类的所有像素的比率计算了类权重。这些计算的比率是:

作为类权重,我取1/<class_ratio>,所以背景的类权重是 3.57,眉毛的类权重是 121.95。

最后,我做了一些数据增强,比如旋转、翻转和改变亮度。

我的结果相当不错,但是当我将训练集的一些图像输入到模型中时,有一些值得注意的地方。在原始分段下方: org_mask

这里是分段结果: 分段结果

如您所见,分割的结果非常好,但尤其是眼睛、眉毛和鼻子等较小的类别并没有像我希望的那样“紧密分割”。基本上对于所有被模型分割的图像,眼睛、鼻子和眉毛都大于原始分割。因此,我想更改一些超参数以获得更小类的更严格的分割结果。

关于为较小的班级获得更严格的结果的可能方法有什么建议吗?我目前根据总数据集中属于每个类的像素的绝对百分比计算类权重的方法效果很好,但也许另一种计算类权重的方法效果更好?还是能够进行精细分割的不同底层模型结构?

任何帮助表示赞赏。谢谢!

0 投票
0 回答
52 浏览

python - 在预训练的 tensorflow 对象检测 api 模型中改进一个类

我试图在预训练的 tf 对象检测 API 模型 ( efficientdet_d0_coco17_tpu-32) 中改进手机移动类。

我已经收集了训练数据并创建tfrecordslabel_map.pbtext如下所示的位置:

并更新pipeline.config如下:

在我尝试推断新模型的训练后,我总是得到1作为detection_classes.

知道我做错了什么吗?还是在这里无法继续学习?