问题标签 [tensorflow-model-garden]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - 使用 Tensorflow 对象检测 API 的高验证损失(使用训练数据集)而训练损失低
在使用脚本对 Faster RCNN 模型进行微调时model_main.py
,我故意将评估数据集设置为与训练数据集 ( TF_DATA
) 相同,并期望在评估中看到与训练中相同的损失。然而,评估损失(4000 epochs 之后):
而训练总损失为:
常数:
我的配置文件:
为什么使用相同数据的训练和评估步骤的总损失不同?
当我只使用legacy/train.py
脚本时,我已经在 1000 个 epochs 后看到了合理的边界框
python - TensorFlow 对象检测 API 测试失败
嗨 Tensorflow 用户和社区,
我正在运行对象检测教程,但遇到了一些问题,我不知道安装是否有问题,但所有命令都成功退出,我被困住了。
- Protobuf 版本:3.12.4
- Python 版本:Python 3.8.5
- 张量板2.3.0
- 张量板插件机智 1.7.0
- 张量流2.3.0
- 张量流插件 0.11.0
- 张量流数据集 3.2.1
- 张量流估计器 2.3.0
- 张量流中心 0.8.0
- 张量流元数据 0.22.2
- 张量流模型优化0.4.1
- 物体检测:0.1
请注意,对象检测是从模型中的 git 安装的,因为它在文档中很突出:
有问题的命令是测试对象检测安装的最后一个命令:
我得到了几个断言错误,一些例子:
第一个断言的完整跟踪:
完整的日志输出:
任何面临类似问题的人?
谢谢!
tensorflow - 我的自定义模型的损失收敛到一个高值(Tensorflow)
我正在训练只检测人的自定义模型。
我使用了 tensorflow 对象检测 API 并遵循了这个 github 文档。
我从可可数据集中获得了图像。
准备了 400 个测试图像和 1600 个训练图像。
这是我的火车配置。
和环境。
根据上面的github文档,损失应该在2以下。
但是我的模型的损失总是收敛到4。有什么问题吗??
我不知道出了什么问题...
感谢所有帮助。
tensorflow - 如何将损失收敛到较低的值?(张量流)
我使用了 tensorflow 对象检测 API。
这是我的环境。
所有图片均来自 coco API
这是我的 train_config。
我找不到优化的学习率、适当的衰减步骤和因子。
所以我做了很多训练,但结果总是相似的。
我怎样才能解决这个问题??
我已经为这个问题花了一周的时间。
在另一篇文章中,有人建议向数据集(图像)添加噪声。
但我不知道这意味着什么。
我怎样才能做到这一点?
python - 如何在 Colab 中将 Inception V4 从 .ckpt 转换为 .pb?
我正在使用 Coral 开发板和 Jetson T2 开发板。为了向他们发送模型,模型必须具有扩展名 .pb
是否有模型已经具有 .pb 扩展名的链接?目前我正在使用这个链接: TF_slim
所有模型都具有扩展名 .ckpt,仅此而已。没有 .meta 或其他任何东西。我不知道如何转换为 .pb。
我在 Colab 工作。这是我的代码:
这是我得到的错误:
谢谢
tensorflow - TensorFlowLite、TendorFlow-TRT 和 TensorRT 之间的主要区别是什么?
我正在使用 Coral 开发板和 Nvidia Jetson TX2。这就是我了解 TensorFlow-Lite、TensorFlow-TRT 和 TensorRT 的方式。我对他们有一些疑问:
在 TensorFlow-TRT 和 TensorRT 之间:当使用完全优化/兼容的图和 TensorRT 时,哪个更快,为什么?
在 Google Coral 中使用 TFlite 的管道(使用 TensorFlow 1.x 时...)是:
一个。使用 TensorFlow 动物园中可用的模型
湾。将模型转换为冻结 (.pb)
C。使用 protobuff 序列化图
d。转换为 Tflite
e. 应用量化 (INT8)
F。编译
使用 TensorFlow-TRT 和 TensorRT 时的管道是什么?有没有什么地方可以找到关于它的好文档?
到目前为止,我认为 TensorRT 更接近 TensorFlow Lite,因为:
TFlite:编译后你会得到一个 .quant.edtpu.tflite 文件,可以用来在开发板中进行推理
TensorRT:你最终会得到一个 .plan 文件来在开发板中进行推理。
感谢您的回答,如果您能指出比较它们的文档,将不胜感激。
object-detection-api - 使用对象检测 API 微调具有不同类数的模型
范围
我正在尝试使用对象检测 API 迁移学习 SSD MobileNet v3(小型)模型,但我的数据集只有 8 个类,而提供的模型是在 COCO(90 个类)上预训练的。如果我保持模型的类数不变,我可以毫无问题地训练。
问题
更改 pipeline.config num_classes 会产生分配错误,因为图层形状与检查点变量不匹配:
问题
- 有没有办法改变类的数量并且仍然进行迁移学习(比如只加载具有匹配大小的变量)?还是我必须在只有 8 节课的从头训练或 90 节课的微调之间应付?
- 是否有任何工具可以手动“修剪”预训练的检查点变量?
数据集:ITD 数据集
型号:SSD MobileNetV3 - 小型(来自Model Zoo)
管道配置:
python - 服务 attention_ocr 模型时出错 ("error": "Expected one or two output Tensors, found 17")
我正在尝试使用tensorflow/serving图像在 docker 上提供attention_ocr 模型。
首先,我用自己的数据集训练了这个模型,并用demo_inference.py得到了一个很好的结果
所以,我用export_model.py导出训练好的模型
python export_model.py --checkpoint=model.ckpt-111111 --export_dir=/tmp/mydir
然后,运行 docker 容器为模型提供服务。
docker run -it --rm -p 8501:8501 -v /tmp/mydir:/models/aocr -e MODEL_NAME=aocr --gpus all tensorflow/serving
这是我的 python 客户端脚本。
结果.."error": "Expected one or two output Tensors, found 17"
这是第一次使用 tensorflow/serving。我无法处理这个错误。
请帮助这个新手..提前谢谢。
python - 错误:包“对象检测”需要不同的 Python:2.7.12 不在“>3.6”中
我正在尝试安装 tensorflow-object-detection API。已经使用 pip 安装了 Tensorflow-gpu-2.1.0。
但是在尝试安装 tensorflow-object-detection-api 时出现此错误:错误:包 'object-detection' 需要不同的 Python:2.7.12 不在 '>3.6' 中
与 python3 相同:错误:包 'object-detection' 需要不同的 Python:3.5.2 不在 '>3.6' 中
在安装步骤中运行以下命令时显示错误:
操作系统:Ubuntu 16.04
蟒蛇:2.7.12