问题标签 [movidius]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
openvino - OpenVINO + HDDL 插件 - 无法运行 openvino 示例 - “HDDL 硬件初始化失败”
我正在尝试让 OpenVINO 样本在 mPCIe Myriad X 卡(带有 2 个 MA2485 芯片)上工作。
我的目标是让样本使用 HDDL 插件工作,据我了解,它应该允许并行处理多个芯片。
使用“MYRIAD”插件,基准测试每次都能成功运行:
sudo -E ./demo_squeezenet_download_convert_run.sh -d MYRIAD
但是,当切换到-d HDDL
我得到以下信息:
我试过弄乱各种配置选项,但无济于事。我也尝试过重新安装 Ubuntu,但也没有用。
使用 Ubuntu 16.04.6,内核 4.4.0-148-generic。
lshw 条目:
${HDDL_INSTALL_DIR}/config/bsl.json (在这里尝试了多种配置,没有任何效果):
tensorflow - 如何更改现有张量流模型 (.pb) 的输入形状
我想将预先存在的张量流图转换为可以部署在 Movidius 神经计算棒上的图。
当我使用命令 mvNCCompile(来自 NCSDK)时,出现以下错误:[错误 5] 工具包错误:不支持阶段详细信息:不支持动态输入形状。
检查张量板中的张量流图后,我发现输入张量具有以下形状:(?,?,?,3) 在我的用例中,我始终具有相同的输入形状:(1,368,656,3)。
现在我想将张量的动态输入形状更改为静态输入形状。
我怎样才能做到这一点?
我试过关注这篇文章:如何在 Tensorflow 中更改保存的模型输入形状? 但我无法更改图表。
图表可以在这里找到:https ://github.com/ildoonet/tf-pose-estimation/blob/master/models/graph/mobilenet_thin/graph_opt.pb
tensorflow - 使用 ssd mobilenet v1 coco 的 output_node_name 进行推理的冻结模型
我想将 TensorFlow Graph 编译为 Movidius Graph。我已经使用 Model Zoo 的ssd_mobilenet_v1_coco
模型在我自己的数据集上对其进行了训练。
然后我跑了
这产生了我frozen_interference_graph.pb
&saved_model/saved_model.pb
现在将此保存的模型转换为Movidius 图。有给出的命令
导出 GraphDef 文件
冻结模型以进行推理
最终可以提供给NCS 英特尔 Movidius SDK
所有这些都在英特尔 Movidius 网站上提供:https ://movidius.github.io/ncsdk/tf_modelzoo.html
我的模型已经训练过了,即output/frozen_inference_graph
。为什么我要再次冻结它,/slim/export_inference_graph.py
否则它将output/saved_model/saved_model.py
作为输入slim/export_inference_graph.py
?
我想要的只是output_node_name=Inceptionv3/Predictions/Reshape_1。如何获取此 output_name_name 目录结构和其中的任何内容?我不知道它包含什么
我应该为模型动物园的模型使用什么输出节点ssd_mobilenet_v1_coco
(在我自己的自定义数据集上训练)
我理解和不理解的事情: input_checkpoint:✓ [在训练期间创建的检查点] output_graph:✓ [输出冻结图的路径] out_node_names:X
我不明白out_node_names
参数和考虑到它ssd_mobilnet
不是 inception_v3里面应该有什么
系统信息
- 您正在使用的模型的顶级目录是什么:
- 我是否编写了自定义代码(而不是使用 TensorFlow 中提供的股票示例脚本):
- 操作系统平台和发行版(例如,Linux Ubuntu 16.04):Linux Ubuntu 16.04
- TensorFlow 安装自(源代码或二进制文件):TensorFlow 使用 pip 安装
- TensorFlow 版本(使用下面的命令):1.13.1
- Bazel 版本(如果从源代码编译):
- CUDA/cuDNN 版本:V10.1.168/7.*
- GPU型号和内存:2080Ti 11Gb
- 重现的确切命令:
python-3.x - tensorflow openvino ssd-mobilnet coco 自定义数据集错误输入层
所以,我正在使用 TensorFlow SSD-Mobilnet V1 coco 数据集。我已经对自己的数据集进行了进一步的培训,但是当我尝试将其转换为 OpenVino IR 以使用 Movidius 芯片在 Raspberry PI 上运行它时。我收到一个错误
当我尝试将 ssd.pb(冻结模型)转换为 OpenVino IR
你认为我们应该如何解决这个问题?
python-3.x - 在树莓派 4 中运行推理几秒钟后,openvino 崩溃
我尝试使用英特尔神经计算棒 2 作为智能汽车的推理引擎。
我安装了 l_openvino_toolkit_runtime_raspbian_p_2019.2.242.tgz 后跟这个链接,并运行代码进行测试。
在 10 - 20 秒开始时一切都很好(有时更少,有时更长),然后崩溃并出现以下错误:
E: [xLink] [327401] [EventRead00Thr] dispatcherEventReceive:336 dispatcherEventReceive() 读取失败 (err -4) | 事件 0xaf1fdddc XLINK_READ_REL_REQ
E: [xLink] [ 327401] [EventRead00Thr] eventReader:223 eventReader 线程已停止 (err -4) E: [xLink] [ 327402] [python3] XLinkReadDataWithTimeOut:1323 事件数据无效
E: [ncAPI] [327402] [python3] ncFifoReadElem:3445 数据包读取失败。在抛出 'InferenceEngine::details::InferenceEngineException' 的实例后调用终止
what():无法从 FIFO 读取输出:NC_ERROR
中止
我尝试将其插入带有自供电适配器的 USB 集线器,但仍然出现相同的错误。我也尝试将它插入USB2.0,但仍然无法正常工作。
我检查了 dmesg,发现当我调用 net.forward() 时,英特尔神经计算棒 2 会自动安装。
我通过以下步骤获得了 dmesg 信息:
- 在运行代码之前检查 ncs2 设备是否正常(我可以找到该设备)。
- 清除 dmesg
- 运行代码
- 等待它崩溃。然后,查看 dmesg。
dmesg 显示:
[87255.685160] USB 1-1.1:USB 断开,设备号 25
[87255.831256] USB 2-1:使用 xhci_hcd 的新 SuperSpeed Gen 1 USB 设备编号 18
[87255.861963] USB 2-1:找到新的 USB 设备,idVendor=03e7,idProduct=f63b,bcdDevice=1.00
[87255.861970] usb 2-1:新的 USB 设备字符串:Mfr=1,Product=2,SerialNumber=3
[87255.861975] USB 2-1:产品:VSC 环回设备
[87255.861980] USB 2-1:制造商:英特尔公司
[87255.861985] USB 2-1:序列号:41440410119541BC00
[87280.181479] USB 1-1.1:使用 xhci_hcd 的新高速 USB 设备编号 26
[87280.312042] USB 1-1.1:找到新的 USB 设备,idVendor=03e7,idProduct=2485,bcdDevice=0.01
[87280.312048] usb 1-1.1:新的 USB 设备字符串:Mfr=1,Product=2,SerialNumber=3
[87280.312053] USB 1-1.1:产品:Movidius MyriadX
[87280.312058] USB 1-1.1:制造商:Movidius Ltd.
[87280.312063] USB 1-1.1:序列号:03e72485
[87280.691784] USB 2-1:USB 断开,设备号 18
我的环境是:Raspberry Pi 4 (4GB) Raspbian Buster
我已经调试了几天,但不知道如何解决这个问题。有什么我错过的吗?
谢谢!
machine-learning - 我们如何在 Windows 中使用英特尔 Movidius 神经计算棒来定制模型
我如何在 Windows 中使用英特尔 Movidius 神经计算棒运行自定义模型。例如风格转移模型,将风格从一个图像转移到另一个图像,该项目可用的文件是 UI(javascript)和 python 文件,我们如何使用英特尔棒运行这个模型。请建议。
cmake - Cmake 中的 INFERENCE_ENGINE_LIB 未设置错误
我正在尝试使用英特尔 movidius Myriad X VPU 在我的树莓派 4 中运行 gender_age 示例( https://github.com/movidius/ncappzoo/tree/master/apps/gender_age ),但出现错误
我按照教程https://software.intel.com/en-us/articles/get-started-with-neural-compute-stick直到下一步:这里的 ncappzoo 标题是我的错误
python - 使用 Movidius NCS2 的 OpenCV 在使用暗网神经网络时会出错
我正在尝试使用 Intel Movidius 神经计算棒 2 执行 OCR。我使用的 OCR 网络基于 YOLO,因此将图形结构保存为.cfg
文件,将权重保存为.weights
文件。我使用在 Raspberry Pi 3b+ 上随 Openvino 一起安装的 OpenCV。我的代码如下:
在运行此代码时,我收到以下错误:
如果我将推理目标更改为cv2.dnn.DNN_TARGET_CPU
并将推理后端更改为cv2.dnn.DNN_BACKEND_OPENCV
,则模型可以正常工作并且能够正确执行 OCR。我的 openvino/openCV 设置也正确安装,因为我可以使用 openCV(使用readNetFromTensorflow()
/ readNetFromCaffe()
)正确运行其他 Tensorflow/Caffe 模型。
我尝试使用的 OCR 网络可以在这里找到:cfg、weights。
任何帮助表示赞赏!
tensorflow - 如何找到frozen_inference_graph.pb 输入和输出节点?
我已经通过 ssd inception v2 模型训练了一个模型,并使用“export_inference_graph.py”生成了frozen_inference_graph.pb
我尝试使用以下命令生成模型,然后尝试使用 mvNCCompiler 将其转换为 movidius 图
然后我尝试通过 mvNCCompiler 将 model.ckpt.meta 转换为 movidius 图并得到下面的错误
computer-vision - 转换 TensorFlow 模型时出现 OpenVino 模型优化器错误
我使用 TensorFlow for Poets 2 repo ( https://github.com/googlecodelabs/tensorflow-for-poets-2 ) 中的 python 脚本创建了一个自定义图像分类 .pb 模型文件。
我尝试使用以下脚本使用 OpenVino 模型优化器将其转换为中间表示:
python mo_tf.py --input_model retrained_graph.pb
python mo_tf.py --input_model retrained_graph.pb --mean_values [127.5,127.5,127.5] --input Mul
在这两种情况下都发生了这样的事情:
有谁知道如何修理它?