问题标签 [openvino]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python-3.x - 图包含一个循环
当我使用 open vino 使用模型优化器将 .pb 文件转换为推理格式时,我一直面临“图形包含循环错误”。我们使用了 TensorFlow Object Detection Models 和 SSD Inception V2 来生成 .pb 文件。
computer-vision - 使用 CustomLayerMapping.xml 转换模型后,如何让 openvino 推理引擎回退到系统 caffe?
所有的推论都计划在cpu上进行。当我指定一个回退到系统 caffe 的层时,我已经成功地将模型与 IR 协调起来。但是,我应该如何编码和编译 cpp 代码,让它知道我要去用户后备层,以及在哪里可以找到 libcaffe。
python-3.x - 输出文件为空,在 docker 容器的 ubuntu16.04 中没有进行任何编码(检查 -ss / -t / -frames 参数,如果使用)
我正在使用一个安装了 Ubuntu 16.04 的 Docker 容器。我尝试设置基于 IOT 的 people_counter 项目,因此我安装了 OpenVINO Toolkit,安装后我运行命令,最后在构建并启动使用深度学习推理进行人数统计的主应用程序时出现以下错误。
我运行程序:
我得到了这个:
我能做些什么?
编辑:在 Peter Cordes建议之后
删除 -v 警告我运行命令,我得到了这个:
docker - Makefile:273:目标“安装”的配方失败 make:*** [安装] Docker 容器中 ubuntu16.04 中的错误 1
我正在使用安装 ubuntu16.04 的 Docker 容器,我尝试安装 openvino 工具包的设置,所以当我按照https://github.com/intel中给出的命令安装 Paho* MQTT C 客户端库时出现以下错误-iot-devkit/人员计数器
有人可以解释该错误的含义以及如何解决它吗?
linux - 即使安装了 libavcodec 56 也找不到
当我尝试在 Ubuntu 18.04 中编译英特尔 OpenVino 项目时,我不断收到此错误消息:warning: libavcodec-ffmpeg.so.56, needed by /opt/intel/computer_vision_sdk_2018.3.343/opencv/lib/libopencv_videoio.so.3.4.3, not found
我也收到类似的错误消息:libavformat-ffmpeg.so.56
、libavutil-ffmpeg.so.54
和libswscale-ffmpeg.so.3
。
但是,当我ffmpeg
在终端中输入时,我得到:
我有所有正确的版本。ffmpeg 位于 /usr/local/bin 中。为什么 OpenVino 看不到它?任何建议将不胜感激,在此先感谢!
这是我要编译的项目:https ://github.com/intel-iot-devkit/intruder-detector
computer-vision - Intel movidius Stick setup ldconfig igfxcmrt64.so 不是符号链接
我完全按照Intel.com上的步骤操作。
当我这样做时,sudo ldconfig
我收到以下错误消息:
我检查了opt/intel/mediasdk/lib64
目录,它确实几乎是空的。
我尝试重新安装 OpenVino,我尝试重新安装 mediaSDK 组件。没有任何工作。
cmake - 英特尔 OpenVino 项目的 Cmake 抱怨 feature_defs 和缺少 OpenVino 扩展目录
我试图编译这个 OpenVino 示例项目:https ://github.com/intel-iot-devkit/intruder-detector
当我做 cmake 时,我不知道它为什么要求 feature_def,我不明白这意味着什么。
我也对如何/opt/intel//computer_vision_sdk_2018.4.420/deployment_tools/inference_engine/samples/extension
说是一个不存在的目录感到困扰。它确实不存在。我尝试重新安装 OpenVino 几次,但并没有解决问题。请帮助,任何建议将不胜感激。提前致谢。
python - 安装 OpenVino 生成与张量流相关的错误
我试图在我的系统上安装最新版本的 Opevino。我正在关注此文档:
https ://software.intel.com/en-us/articles/OpenVINO-Install-Windows
在我需要运行此批处理文件的步骤中: install_prerequisites.bat
我收到了这个错误:
我该如何解决这个错误?
附带说明一下,当我搜索此错误时,我发现它与 PIP 18 和 tensorflow 有关:TensorFlow not found using pip
python - Softmax input or output SecondStageBoxPredictor/ClassPredictor/BiasAdd/softmax has invalid batch
We have trained a Mask R-CNN
model on a NVIDIA GPU
to do object instance segmentation and tested on some images with sufficient performance. Now we are looking into deploy the trained model on Neural Compute Stick 2
. I'm just getting started with OpenVINO toolkit
and here is what I have done:
I downloaded
mask_rcnn_inception_v2_coco.tar.gz
fromTensorFlow detection model zoo
and decompressed it.I used
/li>ModelOptimizer
as follows to get anIntermediate Representation
:
(I used data type of FP16 as the default FP32 is not supported on VPU)
- Then I used Inference Engine in the
mask_rcnn_demo
as follows:
./mask_rcnn_demo -m ./frozen_graph.xml -i ./image.jpg -d MYRIAD
However, I got the following error:
Could someone please point me to the source of this error?
I understand from the documentation that currently Mask RCNN is only supported on CPU and GPU, but I would like to know is there anything I can do to get it run on VPU (such as write custom layers for layers not supported in Model Optimizer?). I haven't found any explanation on why Mask RCNN is not supported on VPU in the documentation yet.
Thanks,
tensorflow - 将模型优化器用于 tensorflow slim 模型
我的目标是使用英特尔 OpenVINO 优化器推断 tensorflow slim 模型。使用开放的 vino 文档和幻灯片进行推理,使用tf slim 文档进行模型训练。
这是一个多类分类问题。我从头开始训练了 tf slim mobilnet_v2 模型(使用 sript train_image_classifier.py)。在测试集上对训练模型的评估给出了相对较好的结果(使用脚本 eval_image_classifier.py):
评估/准确度[0.8017]评估/召回_5[0.9993]
但是,没有保存单个.ckpt
文件(即使在 train_image_classifier.py 运行结束时有类似“model.ckpt is saved to checkpoint_dir”之类的消息),而是有 3 个文件(.ckpt-180000.data-00000-of-00001
, .ckpt-180000.index
, .ckpt-180000.meta
)。
OpenVINO 模型优化器需要一个检查点文件。
根据文档,我使用以下参数调用mo_tf.py :
它给出了错误(如果通过 --input_checkpoint D:/model/model.ckpt 则相同):
错误信息很清楚,磁盘上没有这样的文件。但据我所知,大多数 tf 实用程序在后台将 .ckpt-????.meta 转换为 .ckpt。
试图打电话:
原因:
对我来说,将图形转换为 OpenVINO 中间表示的方式并不重要,只需要达到该结果即可。
非常感谢。
编辑
我设法在 tf slim 模型的冻结图上运行 OpenVINO 模型优化器。但是我仍然不知道为什么我之前的尝试(基于文档)失败了。