问题标签 [openvino]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
340 浏览

openvino - 无法获得与使用 openvino 的 pytorch 模型相同的输出

我在尝试使用 OpenVino 时遇到了一个奇怪的问题。

我已将我的 pytorch 模型导出到 onnx,然后使用以下命令将其导入 OpenVino:

所以对于测试用例,我禁用了优化。

现在,使用示例 python 应用程序,我使用模型运行推理,如下所示:

问题是这似乎输出的东西与我的 onnx 或 pytorch 模型完全不同。

此外,我意识到我什至不必传递输入,所以如果我执行以下操作:

这仍然返回相同的输出!所以这似乎表明我的输入以某种方式被忽略或类似的东西?

0 投票
1 回答
819 浏览

qt - 如何在 Qt 中部署 openvino-opencv

我想在基于 Qt ( Qt5.7.1) 的项目中使用 openvino-opencv。我已经按照 windows10 https://docs.openvinotoolkit.org/latest/_docs_install_guides_installing_openvino_windows.html#Configure_MO中的说明下载并安装了 openvino411(对应于 opencv411)。我编写了一个.pri文件来在 Qt 中部署 opencv:

但似乎 opencv 无法在 Qt 中运行,因为我尝试运行 qt 程序。弹出的 cmd 窗口直接转到“ Press <RETURN> to close this window...”,实际上没有做任何事情。

0 投票
2 回答
547 浏览

python - Yolo 基于区域的输出到 openvino 的解释脚本

您好,我是 OPENCV/CVAT 的新手,我使用 openvino 运行自动注释,我想使用 YoloV3 执行此任务。

我需要将 Yolo 模型转换为 OpenVINO 格式以用于 opencv/cvat/auto_annotation。 https://github.com/opencv/cvat/tree/develop/cvat/apps/auto_annotation

要使用自定义模型注释任务,我需要准备 4 个文件:

  1. 模型配置 (*.xml) - 带有网络配置的文本文件。
  2. 模型权重 (*.bin) - 具有训练权重的二进制文件。
  3. 标签映射 (*.json) - 一个带有 label_map 字典的简单 json 文件,类似于带有标签编号字符串值的对象。
  4. 解释脚本 (*.py) - 用于将网络输出层转换为可通过 CVAT 处理的预定义结构的文件。此代码将在受限制的 python 环境中运行,但可以使用一些内置函数,如 str、int、float、max、min、range。

我将 Yolo 模型转换为 OpenVINO 格式并创建了 xml 和 bin 文件。我编写映射 lson 文件。现在我需要为 Yolo 的基于区域的输出编写解释 python 脚本。我怎样才能做到这一点?是否有从 tensorflow 模型到 openvino 的中断文件?

0 投票
1 回答
234 浏览

c++ - 使用 AVX 的全连接层(点积)

我有以下 C++ 代码来执行完全连接层的乘法和累加步骤(没有偏差)。基本上我只是使用向量(输入)和矩阵(权重)做一个点积。我使用 AVX 向量来加速操作。

它有效,但加速与我的预期相差甚远。正如您在下面看到的,与我的自定义点积层相比,具有 x24 更多操作的卷积层需要更少的时间。这是没有意义的,应该还有更多的改进空间。尝试使用 AVX 时,我的主要错误是什么?(我是 AVX 编程的新手,所以我不完全了解应该从哪里开始全面优化代码)。

提前感谢所有帮助!

0 投票
1 回答
1254 浏览

openvino - OpenVINO 将 TF 模型转换为 IR 文件问题

我正在尝试将 tensorflow 模型转换为 OpenVINO IR 文件。我从以下地址下载了一个预训练模型:

http://download.tensorflow.org/models/object_detection/mask_rcnn_inception_v2_coco_2018_01_28.tar.gz

然后我提取文件得到一个名为“frozen_inference_graph.pb”的.pb文件然后我使用OpenVINO文件夹中的转换命令

“IntelSWTools\openvino_2019.2.275\deployment_tools\model_optimizer\”

如下:

但我收到以下错误消息。我怎样才能修改任何东西来解决这个问题?

我尝试了许多其他 tensorflow 模型,但都有相同的问题。我使用了从1.2.01.14.0的不同 tensorflow 版本,但相同。

关于形状的关键词似乎是主要原因。但是我怎样才能添加一些东西来避免这个问题呢?

希望能正确生成IR文件。

0 投票
1 回答
465 浏览

python-3.x - 在树莓派 4 中运行推理几秒钟后,openvino 崩溃

我尝试使用英特尔神经计算棒 2 作为智能汽车的推理引擎。

我安装了 l_openvino_toolkit_runtime_raspbian_p_2019.2.242.tgz 后跟这个链接,并运行代码进行测试。

在 10 - 20 秒开始时一切都很好(有时更少,有时更长),然后崩溃并出现以下错误:

E: [xLink] [327401] [EventRead00Thr] dispatcherEventReceive:336 dispatcherEventReceive() 读取失败 (err -4) | 事件 0xaf1fdddc XLINK_READ_REL_REQ

E: [xLink] [ 327401] [EventRead00Thr] eventReader:223 eventReader 线程已停止 (err -4) E: [xLink] [ 327402] [python3] XLinkReadDataWithTimeOut:1323 事件数据无效

E: [ncAPI] [327402] [python3] ncFifoReadElem:3445 数据包读取失败。在抛出 'InferenceEngine::details::InferenceEngineException' 的实例后调用终止

what():无法从 FIFO 读取输出:NC_ERROR

中止

我尝试将其插入带有自供电适配器的 USB 集线器,但仍然出现相同的错误。我也尝试将它插入USB2.0,但仍然无法正常工作。

我检查了 dmesg,发现当我调用 net.forward() 时,英特尔神经计算棒 2 会自动安装。

我通过以下步骤获得了 dmesg 信息:

  1. 在运行代码之前检查 ncs2 设备是否正常(我可以找到该设备)。
  2. 清除 dmesg
  3. 运行代码
  4. 等待它崩溃。然后,查看 dmesg。

dmesg 显示:

[87255.685160] USB 1-1.1:USB 断开,设备号 25

[87255.831256] USB 2-1:使用 xhci_hcd 的新 SuperSpeed Gen 1 USB 设备编号 18

[87255.861963] USB 2-1:找到新的 USB 设备,idVendor=03e7,idProduct=f63b,bcdDevice=1.00

[87255.861970] usb 2-1:新的 USB 设备字符串:Mfr=1,Product=2,SerialNumber=3

[87255.861975] USB 2-1:产品:VSC 环回设备

[87255.861980] USB 2-1:制造商:英特尔公司

[87255.861985] USB 2-1:序列号:41440410119541BC00

[87280.181479] USB 1-1.1:使用 xhci_hcd 的新高速 USB 设备编号 26

[87280.312042] USB 1-1.1:找到新的 USB 设备,idVendor=03e7,idProduct=2485,bcdDevice=0.01

[87280.312048] usb 1-1.1:新的 USB 设备字符串:Mfr=1,Product=2,SerialNumber=3

[87280.312053] USB 1-1.1:产品:Movidius MyriadX

[87280.312058] USB 1-1.1:制造商:Movidius Ltd.

[87280.312063] USB 1-1.1:序列号:03e72485

[87280.691784] USB 2-1:USB 断开,设备号 18

我的环境是:Raspberry Pi 4 (4GB) Raspbian Buster

我已经调试了几天,但不知道如何解决这个问题。有什么我错过的吗?

谢谢!

0 投票
1 回答
6106 浏览

python - python ImportError Openvino通过脚本和shell

当我通过命令运行 python 脚本sudo python script.py时,行中出现错误

错误是

但是当我打开 python shell 并运行时

我没有收到此错误。

差异的原因是什么以及如何解决此错误?

0 投票
2 回答
197 浏览

amazon-web-services - OpenVINO 可以与 AWS Lambda 一起使用吗?

我想知道。OpenVINO框架是否可以与 AWS Lambda一起使用,因为它的规模如此之大?如果是这样,怎么做?

0 投票
2 回答
341 浏览

python - 如何将分割模型模型转换为 openvino int8 模型?

我正在尝试将我的张量流分割模型转换为带有量化的 openvino。我使用 openvino 模型优化器将我的 .pb 模型转换为中间表示。但是如何量化模型。在官方文档中写下使用 DL 工作台来做到这一点。但在工作台中,我只有检测和分类数据集。在此处输入图像描述

我可以在没有数据集的情况下将我的模型转换为 int8,还是可以创建数据集进行分段?

0 投票
1 回答
140 浏览

c++ - 无法使用 Openvino 中间表示文件转发()网络,但可以使用 ONNX 文件我正在制作 IR

我遇到了 OpenVINO 模型优化器的一个奇怪问题。我有一个自定义 ONNX 网络,我想使用 MO 对其进行优化。我正在使用 OpenVINO 随附的 OpenCV 来执行最终推理。

首先,我将我的 onnx 网络转换为其等效的 IR 表示。

python mo.py --input_model E:\cv_align.dll --framework onnx --output_dir E:\models\b1 --log_level DEBUG > log.txt

输出看起来不错。

我将生成的 xml,bin 加载到我的 C++ 程序中。当我使用虚拟输入转发模型时,它会崩溃。然后我带着我的 onnx 并直接从 onnx 生成网络,它按预期工作。

像这样,

也以防万一

知道我做错了什么吗?

谢谢。


来自转储的更多信息

ONNX 转储 -

红外转储 -

似乎它只是以某种方式跳过了中间的每一层。