问题标签 [yolo]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - 用于对象检测的训练图像数据集
交通科学首选哪个版本的 YOLO-tensorflow(自定义 cnn,如 googlenet)?
如果训练数据集是模糊的并且有噪音,那么训练是否可以,或者训练数据集图像需要考虑哪些步骤?
opencv - 演示需要 OpenCV 用于网络摄像头图像
我正在尝试使用来自官方网站的 YOLO 进行对象检测:https ://pjreddie.com/darknet/yolo/ 但是我无法将 OpenCV 与它集成,尽管我已经在我的 python 版本 python 和 python3 中安装了 OpenCV 她是错误:
所以任何人都可以帮我解决这个问题,我已经尝试解决了一个多星期,但我做不到。如果有人给我解决方案,我会很高兴。先感谢您。
tensorflow - 从单个图像检测多个对象(无边界框训练)
我有一些高质量的图像,它们在单个图像和标签中有多个对象。训练数据中没有给出边界框。我可以手动绘制边界框并对其进行训练。但这很耗时。所以我问是否有任何机器学习算法可以在没有任何边界框的情况下进行训练。 谁能给点建议??
opencv - OpenCV Yolo V3 微型
我正在尝试在 Open CV 3.4.1 上使用 Yolo tiny 有人可以确认它是否受支持吗?
读取配置文件时出现错误 - 我正在使用从下载的 yolov3-tiny.weights 和 yolov3-tiny.cfg
https://github.com/pjreddie/darknet/blob/master/cfg/yolov3-tiny.cfg
image-processing - 使用 YOLO 制作应用程序
我是 YOLO 的新手,正在尝试使用 YOLO 制作汽车计数应用程序。这些汽车来自视频文件。有没有参考?谢谢
tensorflow - Python内核在加载预训练的YOLO模型时死亡
我试图在 spyder IDE 上使用网络摄像头实时提要运行 coursera 的 YOLO 对象检测实现。但是,每当它遇到:
内核死亡。
显示的错误是:
python-3.x - Tensorflow 中的一些张量操作
我在 Tensorflow 中的一些张量操作上被困了几个小时。我正在尝试使用 Tensorflow 后端在 Keras 框架中实现一些损失函数,但到目前为止没有成功(尽管我相信我越来越接近了)。所讨论的损失函数是YOLO算法的损失函数。这个函数的问题在于它是一个 $L_2$ 范数,但由一些系数加权,具体取决于 $y_true$ 的值。因此,为了构建我的损失函数,我必须研究 $y_true$ 的值,而 Tensorflow 似乎不允许这样做......无论如何,到目前为止,我已经想出了这个技巧:
一点解释:在这里,函数defineMarkUp将所有标签视为np.array并创建一些掩码(根据位置等包含不同的权重......),然后我称之为:
问题是,当使用批处理时,由于所有数据集的维度与我们的批处理不同,因此掩码不再适合,这意味着我需要在将$y_true$ 作为张量的情况下即时构建“标记” 。所以我尝试了这样的事情:
但现在我得到了这个错误:
回溯(最近一次调用):文件“network.py”,第 214 行,在 yolo.compile(loss = yoloLossFinal, optimizer = 'adadelta') 文件“/anaconda3/lib/python3.6/site-packages/keras/ engine/training.py”,第 830 行,编译 sample_weight,掩码)文件“/anaconda3/lib/python3.6/site-packages/keras/engine/training.py”,第 429 行,加权 score_array = fn(y_true , y_pred) 文件“network.py”,第 192 行,在 yoloLossFinal 标记 = defineMarkUp(y_true) 文件“network.py”,第 143 行,在 defineMarkUp 掩码 = np.zeros(y_true.get_shape().as_list()) TypeError : 'NoneType' 对象不能解释为整数
因此,我尝试了其他方法:
但是现在我收到了这个很长的错误消息:
回溯(最后一次调用):文件“/anaconda3/lib/python3.6/site-packages/tensorflow/python/client/session.py”,第 1322 行,在 _do_call return fn(*args) 文件“/anaconda3/ lib/python3.6/site-packages/tensorflow/python/client/session.py”,第 1307 行,在 _run_fn 选项、feed_dict、fetch_list、target_list、run_metadata)文件“/anaconda3/lib/python3.6/site-packages /tensorflow/python/client/session.py",第 1409 行,在 _call_tf_sessionrun run_metadata) tensorflow.python.framework.errors_impl.InvalidArgumentError:您必须使用 dtype 浮点数和形状 [?,?, ?,?] [[节点:conv2d_4_target = Placeholderdtype=DT_FLOAT, shape=[?,?,?,?], _device="/job:localhost/replica:0/task:0/device:CPU:0"]]
在处理上述异常的过程中,又出现了一个异常:
回溯(最后一次调用):文件“network.py”,第 218 行,在 yolo.compile(loss = yoloLossFinal, optimizer = 'adadelta') 文件“/anaconda3/lib/python3.6/site-packages/keras/ engine/training.py”,第 830 行,编译 sample_weight,掩码)文件“/anaconda3/lib/python3.6/site-packages/keras/engine/training.py”,第 429 行,加权 score_array = fn(y_true , y_pred) 文件“network.py”,第 196 行,在 yoloLossFinal 标记 = defineMarkUp(y_true) 文件“network.py”,第 137 行,在 defineMarkUp yy = y_true.eval() 文件“/anaconda3/lib/python3.6 /site-packages/tensorflow/python/framework/ops.py”,第 710 行,在 eval 中返回 _eval_using_default_session(self, feed_dict, self.graph, session) 文件“/anaconda3/lib/python3.6/site-packages/tensorflow/python/framework/ops.py”,第 5180 行,在 _eval_using_default_session 返回 session.run(tensors, feed_dict) 文件“/anaconda3/lib/python3.6/site-packages/tensorflow/python/ client/session.py”,第 900 行,运行 run_metadata_ptr) 文件“/anaconda3/lib/python3.6/site-packages/tensorflow/python/client/session.py”,第 1135 行,在 _run feed_dict_tensor,options,run_metadata )文件“/anaconda3/lib/python3.6/site-packages/tensorflow/python/client/session.py”,第1316行,在_do_run run_metadata)文件“/anaconda3/lib/python3.6/site-packages/tensorflow /python/client/session.py”,第 1335 行,在 _do_call raise type(e)(node_def, op, message) tensorflow.python.framework.errors_impl.InvalidArgumentError:您必须使用 dtype float 和 shape [?,?,?,?] [[Node: conv2d_4_target = Placeholderdtype=DT_FLOAT, shape=[?,?,?,?], _device=" /job:localhost/replica:0/task:0/device:CPU:0"]]
由操作“conv2d_4_target”引起,定义在:文件“network.py”,第 218 行,在 yolo.compile(loss = yoloLossFinal, optimizer = 'adadelta') 文件“/anaconda3/lib/python3.6/site-packages/ keras/engine/training.py”,第 725 行,在 compile dtype=K.dtype(self.outputs[i])) 文件“/anaconda3/lib/python3.6/site-packages/keras/backend/tensorflow_backend.py “,第 508 行,在占位符 x = tf.placeholder(dtype, shape=shape, name=name) 文件“/anaconda3/lib/python3.6/site-packages/tensorflow/python/ops/array_ops.py”中,行1808,在占位符返回 gen_array_ops.placeholder(dtype=dtype, shape=shape, name=name) 文件“/anaconda3/lib/python3.6/site-packages/tensorflow/python/ops/gen_array_ops.py”,第 4848 行,在占位符“占位符”中,dtype=dtype, shape=shape, name=name) 文件“/anaconda3/lib/python3.6/site-packages/tensorflow/python/framework/op_def_library.py”,第 787 行,在 _apply_op_helper op_def=op_def) 文件“/ anaconda3/lib/python3.6/site-packages/tensorflow/python/framework/ops.py”,第 3392 行,在 create_op op_def=op_def) 文件“/anaconda3/lib/python3.6/site-packages/tensorflow/python /framework/ops.py”,第 1718 行,在py",第 1718 行,在py",第 1718 行,在init self._traceback = self._graph._extract_stack() # pylint: disable=protected-access
InvalidArgumentError(参见上面的回溯):您必须为占位符张量“conv2d_4_target”提供一个值,其 dtype 为 float 和 shape [?,?,?,?] [[Node: conv2d_4_target = Placeholderdtype=DT_FLOAT, shape=[?,?, ?,?], _device="/job:localhost/replica:0/task:0/device:CPU:0"]
]
我一直在不懈地尝试实现这个损失函数,所以我真的希望有人能帮助我理解出了什么问题:(。到目前为止,我还有一个更普遍的问题,这可能与我的问题有关:如何真正在 Tensorflow 中实现一个损失函数,意思是:我们可以做什么,不可以做什么?
十分感谢!
python - 用于网络摄像头的暗网 python api,用于在实时视频中进行检测
我试图修改 darknet.py 中的代码,以检测来自网络摄像头的实时视频源。刚刚导入打开的 cv 库并在 main 函数中做了一些修改。它以前检测单个图像,即在导入 opencv 之前。但现在我得到了这个错误。任何人都可以请帮助..
错误:
python - 从视频流中执行接近实时的人员检测的问题
目标:从给定的远程视频流中以最小的延迟/延迟实时检测人。
设置 :
- Raspberry Pi (2) 带 USB 网络摄像头,使用 Flask 提供图像/视频流。
- 本地机(macbook pro)获取视频流,通过OpenCV、Darknet/DarkFlow/Yolo、Tensorflow处理图像。
- 显示检测到的人获得的处理流。检测到的人周围会有一个矩形。
- 蟒蛇 3
我目前有基本功能工作,但是,它似乎相当慢。当我需要在不到一秒的时间内处理图像时,大约每隔几秒钟就会处理一次图像。所以结果是一个视频,它显示了流后面的更新方式并且断断续续。通过四处搜索,这似乎是一个常见问题,但我似乎还没有找到一个直接的答案。
正如一些论坛所说,我已经将流抓取实现为自己的线程,但我相信现在的问题只是处理抓取的图像所需的时间。
是否可以提高性能?我是否需要在提供良好 GPU 的系统上在云中进行此处理,以便我可以利用这种性能提升?我是否使用了错误的 yolo 权重和 cfg?我知道 yolov3 已经出局了,但我认为我在使用我的环境时遇到了问题。