问题标签 [movidius]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
1987 浏览

openvino - OpenVINO + HDDL 插件 - 无法运行 openvino 示例 - “HDDL 硬件初始化失败”

我正在尝试让 OpenVINO 样本在 mPCIe Myriad X 卡(带有 2 个 MA2485 芯片)上工作。

我的目标是让样本使用 HDDL 插件工作,据我了解,它应该允许并行处理多个芯片。

使用“MYRIAD”插件,基准测试每次都能成功运行: sudo -E ./demo_squeezenet_download_convert_run.sh -d MYRIAD

但是,当切换到-d HDDL我得到以下信息:

我试过弄乱各种配置选项,但无济于事。我也尝试过重新安装 Ubuntu,但也没有用。

使用 Ubuntu 16.04.6,内核 4.4.0-148-generic。

lshw 条目:

${HDDL_INSTALL_DIR}/config/bsl.json (在这里尝试了多种配置,没有任何效果):

0 投票
0 回答
1488 浏览

tensorflow - 如何更改现有张量流模型 (.pb) 的输入形状

我想将预先存在的张量流图转换为可以部署在 Movidius 神经计算棒上的图。

当我使用命令 mvNCCompile(来自 NCSDK)时,出现以下错误:[错误 5] 工具包错误:不支持阶段详细信息:不支持动态输入形状。

检查张量板中的张量流图后,我发现输入张量具有以下形状:(?,?,?,3) 在我的用例中,我始终具有相同的输入形状:(1,368,656,3)。

现在我想将张量的动态输入形状更改为静态输入形状。

我怎样才能做到这一点?

我试过关注这篇文章:如何在 Tensorflow 中更改保存的模型输入形状? 但我无法更改图表。

图表可以在这里找到:https ://github.com/ildoonet/tf-pose-estimation/blob/master/models/graph/mobilenet_thin/graph_opt.pb

0 投票
1 回答
974 浏览

tensorflow - 使用 ssd mobilenet v1 coco 的 output_node_name 进行推理的冻结模型

我想将 TensorFlow Graph 编译为 Movidius Graph。我已经使用 Model Zoo 的ssd_mobilenet_v1_coco模型在我自己的数据集上对其进行了训练。

然后我跑了

这产生了我frozen_interference_graph.pb&saved_model/saved_model.pb

11

12

现在将此保存的模型转换为Movidius 图。有给出的命令

导出 GraphDef 文件

冻结模型以进行推理

最终可以提供给NCS 英特尔 Movidius SDK

所有这些都在英特尔 Movidius 网站上提供:https ://movidius.github.io/ncsdk/tf_modelzoo.html

我的模型已经训练过了,即output/frozen_inference_graph。为什么我要再次冻结它,/slim/export_inference_graph.py否则它将output/saved_model/saved_model.py作为输入slim/export_inference_graph.py

我想要的只是output_node_name=Inceptionv3/Predictions/Reshape_1。如何获取此 output_name_name 目录结构和其中的任何内容?我不知道它包含什么

我应该为模型动物园的模型使用什么输出节点ssd_mobilenet_v1_coco(在我自己的自定义数据集上训练)

我理解和不理解的事情: input_checkpoint:✓ [在训练期间创建的检查点] output_graph:✓ [输出冻结图的路径] out_node_names:X

我不明白out_node_names参数和考虑到它ssd_mobilnet不是 inception_v3里面应该有什么


系统信息

  • 您正在使用的模型的顶级目录是什么
  • 我是否编写了自定义代码(而不是使用 TensorFlow 中提供的股票示例脚本)
  • 操作系统平台和发行版(例如,Linux Ubuntu 16.04):Linux Ubuntu 16.04
  • TensorFlow 安装自(源代码或二进制文件):TensorFlow 使用 pip 安装
  • TensorFlow 版本(使用下面的命令):1.13.1
  • Bazel 版本(如果从源代码编译)
  • CUDA/cuDNN 版本:V10.1.168/7.*
  • GPU型号和内存:2080Ti 11Gb
  • 重现的确切命令
0 投票
3 回答
1038 浏览

python-3.x - tensorflow openvino ssd-mobilnet coco 自定义数据集错误输入层

所以,我正在使用 TensorFlow SSD-Mobilnet V1 coco 数据集。我已经对自己的数据集进行了进一步的培训,但是当我尝试将其转换为 OpenVino IR 以使用 Movidius 芯片在 Raspberry PI 上运行它时。我收到一个错误

当我尝试将 ssd.pb(冻结模型)转换为 OpenVino IR

你认为我们应该如何解决这个问题?

0 投票
1 回答
465 浏览

python-3.x - 在树莓派 4 中运行推理几秒钟后,openvino 崩溃

我尝试使用英特尔神经计算棒 2 作为智能汽车的推理引擎。

我安装了 l_openvino_toolkit_runtime_raspbian_p_2019.2.242.tgz 后跟这个链接,并运行代码进行测试。

在 10 - 20 秒开始时一切都很好(有时更少,有时更长),然后崩溃并出现以下错误:

E: [xLink] [327401] [EventRead00Thr] dispatcherEventReceive:336 dispatcherEventReceive() 读取失败 (err -4) | 事件 0xaf1fdddc XLINK_READ_REL_REQ

E: [xLink] [ 327401] [EventRead00Thr] eventReader:223 eventReader 线程已停止 (err -4) E: [xLink] [ 327402] [python3] XLinkReadDataWithTimeOut:1323 事件数据无效

E: [ncAPI] [327402] [python3] ncFifoReadElem:3445 数据包读取失败。在抛出 'InferenceEngine::details::InferenceEngineException' 的实例后调用终止

what():无法从 FIFO 读取输出:NC_ERROR

中止

我尝试将其插入带有自供电适配器的 USB 集线器,但仍然出现相同的错误。我也尝试将它插入USB2.0,但仍然无法正常工作。

我检查了 dmesg,发现当我调用 net.forward() 时,英特尔神经计算棒 2 会自动安装。

我通过以下步骤获得了 dmesg 信息:

  1. 在运行代码之前检查 ncs2 设备是否正常(我可以找到该设备)。
  2. 清除 dmesg
  3. 运行代码
  4. 等待它崩溃。然后,查看 dmesg。

dmesg 显示:

[87255.685160] USB 1-1.1:USB 断开,设备号 25

[87255.831256] USB 2-1:使用 xhci_hcd 的新 SuperSpeed Gen 1 USB 设备编号 18

[87255.861963] USB 2-1:找到新的 USB 设备,idVendor=03e7,idProduct=f63b,bcdDevice=1.00

[87255.861970] usb 2-1:新的 USB 设备字符串:Mfr=1,Product=2,SerialNumber=3

[87255.861975] USB 2-1:产品:VSC 环回设备

[87255.861980] USB 2-1:制造商:英特尔公司

[87255.861985] USB 2-1:序列号:41440410119541BC00

[87280.181479] USB 1-1.1:使用 xhci_hcd 的新高速 USB 设备编号 26

[87280.312042] USB 1-1.1:找到新的 USB 设备,idVendor=03e7,idProduct=2485,bcdDevice=0.01

[87280.312048] usb 1-1.1:新的 USB 设备字符串:Mfr=1,Product=2,SerialNumber=3

[87280.312053] USB 1-1.1:产品:Movidius MyriadX

[87280.312058] USB 1-1.1:制造商:Movidius Ltd.

[87280.312063] USB 1-1.1:序列号:03e72485

[87280.691784] USB 2-1:USB 断开,设备号 18

我的环境是:Raspberry Pi 4 (4GB) Raspbian Buster

我已经调试了几天,但不知道如何解决这个问题。有什么我错过的吗?

谢谢!

0 投票
1 回答
114 浏览

machine-learning - 我们如何在 Windows 中使用英特尔 Movidius 神经计算棒来定制模型

我如何在 Windows 中使用英特尔 Movidius 神经计算棒运行自定义模型。例如风格转移模型,将风格从一个图像转移到另一个图像,该项目可用的文件是 UI(javascript)和 python 文件,我们如何使用英特尔棒运行这个模型。请建议。

0 投票
1 回答
198 浏览

cmake - Cmake 中的 INFERENCE_ENGINE_LIB 未设置错误

我正在尝试使用英特尔 movidius Myriad X VPU 在我的树莓派 4 中运行 gender_age 示例( https://github.com/movidius/ncappzoo/tree/master/apps/gender_age ),但出现错误

我按照教程https://software.intel.com/en-us/articles/get-started-with-neural-compute-stick直到下一步:这里的 ncappzoo 标题是我的错误

0 投票
1 回答
371 浏览

python - 使用 Movidius NCS2 的 OpenCV 在使用暗网神经网络时会出错

我正在尝试使用 Intel Movidius 神经计算棒 2 执行 OCR。我使用的 OCR 网络基于 YOLO,因此将图形结构保存为.cfg文件,将权重保存为.weights文件。我使用在 Raspberry Pi 3b+ 上随 Openvino 一起安装的 OpenCV。我的代码如下:

在运行此代码时,我收到以下错误:

如果我将推理目标更改为cv2.dnn.DNN_TARGET_CPU并将推理后端更改为cv2.dnn.DNN_BACKEND_OPENCV,则模型可以正常工作并且能够正确执行 OCR。我的 openvino/openCV 设置也正确安装,因为我可以使用 openCV(使用readNetFromTensorflow()/ readNetFromCaffe())正确运行其他 Tensorflow/Caffe 模型。

我尝试使用的 OCR 网络可以在这里找到:cfgweights

任何帮助表示赞赏!

0 投票
0 回答
248 浏览

tensorflow - 如何找到frozen_inference_graph.pb 输入和输出节点?

我已经通过 ssd inception v2 模型训练了一个模型,并使用“export_inference_graph.py”生成了frozen_inference_graph.pb

我尝试使用以下命令生成模型,然后尝试使用 mvNCCompiler 将其转换为 movidius 图

然后我尝试通过 mvNCCompiler 将 model.ckpt.meta 转换为 movidius 图并得到下面的错误

0 投票
1 回答
785 浏览

computer-vision - 转换 TensorFlow 模型时出现 OpenVino 模型优化器错误

我使用 TensorFlow for Poets 2 repo ( https://github.com/googlecodelabs/tensorflow-for-poets-2 ) 中的 python 脚本创建了一个自定义图像分类 .pb 模型文件。

我尝试使用以下脚本使用 OpenVino 模型优化器将其转换为中间表示:

python mo_tf.py --input_model retrained_graph.pb

python mo_tf.py --input_model retrained_graph.pb --mean_values [127.5,127.5,127.5] --input Mul

在这两种情况下都发生了这样的事情:

有谁知道如何修理它?