问题标签 [faster-rcnn]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python-3.x - 从头开始实现 Faster Rcnn
我想从头开始构建自己的 Faster-RCNN 模型,用于从图像数据中进行多对象检测。
有人可以向我推荐一些好的资源来逐步实现faster-RCNN吗?
就准确性和执行时间而言,哪一个会是好的 YOLO 或更快的 RCNN?
caffe - 冻结 VGG19 网络中的权重以在 Caffe 中进行迁移学习
我问这个问题的原因是因为在 VGG19 中有批量标准化层(例如,与 VGG16 不同)。
我正在尝试在 Caffe 中训练 Faster-RCNN 网络。我这样做是:
- 下载 VGG19 ImageNet 预训练模型(权重 + prototxt 文件)
- 从 prototxt 文件中删除全连接层
- 在 VGG19 主干卷积层之上添加 RPN 和 Fast-RCNN 层
我没有改变任何关于lr_mult
卷积层的值。在 prototxt 文件中,卷积层(如conv1_1
等)具有非零lr_mult
值,而批量归一化层的lr_mult
值设置为 0(层名为 like conv1_1/bn
)。
批量归一化层被冻结的事实是否意味着卷积层也被冻结?或者我应该lr_mult
在名为 的图层中也设置为 0convX_X
吗?
更新:在将所有卷积层归零的同时运行另一个训练过程后lr_mult
,训练时间显着减少,这意味着答案是层中的lr_mult
值也需要设置为 0 convX_X
。
python - 输入 0 与层展平不兼容:预期 min_ndim=3,发现 ndim=2
我收到了这个错误
输入 0 与 layer flatten 不兼容:预期 min_ndim=3,在运行 x= Flatten(name='flatten')(last_layer) 时发现 ndim=2。
的形状last_layer
是TensorShape([Dimension(None), Dimension(2048)])
? 谁能解释如何在 keras 中解决这个问题?
python - 将我的 Tensorflow 模型和代码导出到另一台 PC
我参考了许多教程,并在 Anaconda 虚拟环境中使用 Faster-RCNN 构建了对象检测模型。现在我想展示这个模型,当我在没有 Anaconda 的不同系统上运行它时发现问题,我尝试在 CMD 上运行它。事实上,它根本不运行。我已经对导出模型进行了研究,但每次都遇到了死胡同。我使用 Anaconda Prompt + Windows 10 + NVidia GPU + Tensorflow-gpu=1.5 在我的专用系统上运行模型。我想知道如何将其导出到没有安装 GPU 或 Anaconda 的另一台 PC。还是我在方法上完全错误并且需要在我的系统上运行它时使用的所有依赖项?
python - 构建“pycocotools._mask”扩展错误:未知文件类型“.pyx”(来自“pycocotools/_mask.pyx”)
当我按照介绍运行tf-faster-rcnnmake
时,在路径下运行时出现以下错误../tf-faster-rcnn/data/coco/PythonAPI/
:
我已经尝试过这种方法,但它不起作用。
python - ValueError:无法将大小为 1048576 的数组重塑为形状 (1024,1024,3)
下面是来自 .ipynb 文件的代码片段。
我正在尝试在图像数据集上测试我的模型的准确性。从上面的代码我得到以下错误
有人可以帮我解决这个错误吗?
android - 如何让 tensorflow 对象检测更快-r cnn 模型在 Android 上工作?
我有一个关于TensorFlow 对象检测 API的问题。我用自己的交通标志分类数据集训练了 Faster R-CNN Inception v2 模型,我想将其部署到 Android,但适用于 Android的 Tensorflows Object Detection API和/或Tensorflow Lite似乎只支持 SSD 模型。
有什么方法可以将 Faster R-CNN 模型部署到 Android 上?我的意思是如何将我的 Faster R-CNN 的冻结推理图放到 android API 而不是 SSD 冻结推理图?
python - TensorFlow 对象检测 train_config 文件错误
所以我试图重新训练一个 fast_rcnn 对象检测模型,只使用一个类,我试图在本地(在 VM 上)和通过 ML 引擎运行它。然而,关于 train_config 文件,我一直遇到同样的错误,这是对 faster_rcnn_resnet50_coco.config 配置的改编:
回溯(最后一次调用):文件“/usr/lib/python2.7/runpy.py”,第 174 行,在 _run_module_as_main “ main ”中", fname, loader, pkg_name) File "/usr/lib/python2.7/runpy.py", line 72, in _run_code exec code in run_globals File "/root/.local/lib/python2.7/site-packages /trainer/task.py”,第 171 行,在 tf.app.run(main=main, argv=[sys.argv[0]] + unparsed) 文件“/usr/local/lib/python2.7/dist- packages/tensorflow/python/platform/app.py”,第 125 行,在运行 _sys.exit(main(argv)) 文件“/root/.local/lib/python2.7/site-packages/trainer/task.py ”,第 142 行,在主 tf.estimator.train_and_evaluate(estimator, train_spec, eval_specs[0]) 文件“/usr/local/lib/python2.7/dist-packages/tensorflow/python/estimator/training.py”中,第 471 行,在 train_and_evaluate 返回 executor.run() 文件“/usr/local/lib/python2.7/dist-packages/tensorflow/python/estimator/training.py”,第 637 行,在运行 getattr(self, task_to_run)() 文件“/usr/local/lib/python2.7/dist-packages/tensorflow/python/estimator/training.py”,第 674 行,在 run_master self._start_distributed_training(saving_listeners=saving_listeners ) 文件“/usr/local/lib/python2.7/dist-packages/tensorflow/python/estimator/training.py”,第 788 行,_start_distributed_training Saving_listeners=saving_listeners) 文件“/usr/local/lib/python2.7 /dist-packages/tensorflow/python/estimator/estimator.py”,第 354 行,在 train loss = self._train_model(input_fn, hooks, Saving_listeners) 文件“/usr/local/lib/python2.7/dist-packages/ tensorflow/python/estimator/estimator.py”,第 1207 行,在 _train_model 返回 self._train_model_default(input_fn, hooks, Saving_listeners) 文件“/usr/local/lib/python2.7/dist-packages/tensorflow/python/estimator/estimator.py”,第 1234 行,在 _train_model_default input_fn, model_fn_lib.ModeKeys.TRAIN)) 文件“/usr/local/lib/python2.7/dist-packages/tensorflow/ python/estimator/estimator.py”,第 1075 行,在 _get_features_and_labels_from_input_fn self._call_input_fn(input_fn, mode)) 文件“/usr/local/lib/python2.7/dist-packages/tensorflow/python/estimator/estimator.py” ,第 1162 行,在 _call_input_fn 返回 input_fn(**kwargs) 文件“/root/.local/lib/python2.7/site-packages/trainer/object_detection/inputs.py”,第 375 行,在 _train_input_fn raise TypeError('For训练模式,7/dist-packages/tensorflow/python/estimator/estimator.py”,第 1075 行,在 _get_features_and_labels_from_input_fn self._call_input_fn(input_fn, mode)) 文件“/usr/local/lib/python2.7/dist-packages/tensorflow/ python/estimator/estimator.py”,第 1162 行,在 _call_input_fn 返回 input_fn(**kwargs) 文件“/root/.local/lib/python2.7/site-packages/trainer/object_detection/inputs.py”,第 375 行, 在 _train_input_fn raise TypeError('对于训练模式,7/dist-packages/tensorflow/python/estimator/estimator.py”,第 1075 行,在 _get_features_and_labels_from_input_fn self._call_input_fn(input_fn, mode)) 文件“/usr/local/lib/python2.7/dist-packages/tensorflow/ python/estimator/estimator.py”,第 1162 行,在 _call_input_fn 返回 input_fn(**kwargs) 文件“/root/.local/lib/python2.7/site-packages/trainer/object_detection/inputs.py”,第 375 行, 在 _train_input_fn raise TypeError('对于训练模式,第 375 行,在 _train_input_fn raise TypeError('对于训练模式,第 375 行,在 _train_input_fn raise TypeError('对于训练模式,
train_config
必须是 ' TypeError: 对于训练模式,train_config
必须是 train_pb2.TrainConfig。
我花了很长时间在我的配置文件中寻找这个问题的潜在原因,但我看不出问题是什么。除了 TF 源代码本身之外,似乎没有任何文档提到这一点。任何见解将不胜感激!
python - 如何使用 python 将 pydicom 文件(图像)分成两半?
我有很多图像(pydicom 文件)。我想分成两半。从 1 张图片中,我想要 2 张图片:左侧和右侧。
输入:1000x1000 输出:500x1000(宽 x 高)。
目前,我只能读取一个文件。
第一部分,我想将一半放在一个文件夹中,另一半放在第二个文件夹中。这就是我所拥有的: 在此处输入图像描述 这就是我想要的: 在此处输入图像描述
我使用 Mask-RCNN 来解决对象定位问题。我想裁剪 50% 的图像大小(pydicom 文件)。
编辑1:
我有 dicom 文件,但无法显示。
this transfer syntax JPEG 2000 Image Compression (Lossless Only), can not be read because Pillow lacks the jpeg 2000 decoder plugin
machine-learning - 如何从加载的权重创建损失图?(model.load_weights) 如何将 model.load_weights 添加到历史记录中?
我想造成损失。(情节)我使用 Mask-RCNN。我从我的模型中加载了一个权重。但我无法创建损失函数。我收到错误:'Model' object has no attribute 'history'