问题标签 [inference-engine]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
fuzzy-logic - 推理引擎 - 具有清晰和模糊事实的混合规则
我想制作一个推理模糊引擎,它可以推断出 3 种类型的规则:
- 清晰的规则。
- 模糊规则。
- 具有清晰和模糊事实的混合规则。
每个规则都有一个假设集、一个结论集和一个确定性因子。在集合的事实中,如果一个事实是一个模糊的事实,那么它就具有一定程度的真实性。
有推断清晰规则和模糊规则的教程,但我如何推断混合规则?
expert-system - Jess:运算符错误小于
我正在学习较少并且在使用小于运算符'<定义规则时遇到问题。这是我的 defTemplates:
这是我的规则:
但是,当我运行推理引擎时,出现下一个错误:
如果您能帮助我,我将不胜感激。
neo4j - Neo4j 中的推理引擎
我想知道是否有一种方法可以在 Neo4j 中使用推理引擎(如 Drools),就像我们在 Protege 中一样(使用 SWRL 和 JessTab 等插件)。我在网上找不到太多关于此的信息。任何线索将不胜感激。
c++ - 如何在使用 TensorRT C++ API 编写的 TensorRT 模型上运行半精度推理?
我正在尝试使用原生用 TensorRT C++ API 编写的模型运行半精度推理(未从其他框架解析,例如 caffe、tensorflow);据我所知,这个问题没有公开的工作示例;我找到的最接近的是 sampleMLP 示例代码,它与TensorRT 4.0.0.3 一起发布,但发行说明说不支持 fp16;
我的玩具示例代码可以在这个 repo中找到。它包含 API 实现的架构和推理例程,以及我用来将训练过的权重字典转换为 wtd TensorRT 格式的 python 脚本。
我的玩具架构只包含一个卷积;目标是在 fp32 和 fp16 之间获得相似的结果,除了一些合理的精度损失;该代码似乎适用于 fp32,而我在 fp16 推理的情况下获得的是完全不同数量级的值(~1e40);所以看起来我在转换过程中做错了什么;
对于理解问题的任何帮助,我将不胜感激。
谢谢,
F
computer-vision - 使用 CustomLayerMapping.xml 转换模型后,如何让 openvino 推理引擎回退到系统 caffe?
所有的推论都计划在cpu上进行。当我指定一个回退到系统 caffe 的层时,我已经成功地将模型与 IR 协调起来。但是,我应该如何编码和编译 cpp 代码,让它知道我要去用户后备层,以及在哪里可以找到 libcaffe。
tensorflow - 将模型优化器用于 tensorflow slim 模型
我的目标是使用英特尔 OpenVINO 优化器推断 tensorflow slim 模型。使用开放的 vino 文档和幻灯片进行推理,使用tf slim 文档进行模型训练。
这是一个多类分类问题。我从头开始训练了 tf slim mobilnet_v2 模型(使用 sript train_image_classifier.py)。在测试集上对训练模型的评估给出了相对较好的结果(使用脚本 eval_image_classifier.py):
评估/准确度[0.8017]评估/召回_5[0.9993]
但是,没有保存单个.ckpt
文件(即使在 train_image_classifier.py 运行结束时有类似“model.ckpt is saved to checkpoint_dir”之类的消息),而是有 3 个文件(.ckpt-180000.data-00000-of-00001
, .ckpt-180000.index
, .ckpt-180000.meta
)。
OpenVINO 模型优化器需要一个检查点文件。
根据文档,我使用以下参数调用mo_tf.py :
它给出了错误(如果通过 --input_checkpoint D:/model/model.ckpt 则相同):
错误信息很清楚,磁盘上没有这样的文件。但据我所知,大多数 tf 实用程序在后台将 .ckpt-????.meta 转换为 .ckpt。
试图打电话:
原因:
对我来说,将图形转换为 OpenVINO 中间表示的方式并不重要,只需要达到该结果即可。
非常感谢。
编辑
我设法在 tf slim 模型的冻结图上运行 OpenVINO 模型优化器。但是我仍然不知道为什么我之前的尝试(基于文档)失败了。
opencv - Building opencv with Intel Inference Engine
Trying to load ssdlite v2 model with intel inference engine on raspberry Pi 3. For this, I need to build opencv-4.0 with Intel Inference API engine. I am unable to build open CV using CMAKE with -DWITH_INF_ENGINE=ON ^ -DENABLE_CXX11=ON flags. Does anyone know how to do it?
prolog - 无限循环推理 Prolog
当推理电机被激活以进行必要的推理时,将生成一个无限循环。
规则和事实是根据我正在使用的元解释器的特定语法定义的。
该规则是一个五元组,其中第二个字段是规则的结果,而第三个字段是激活规则的条件。
该循环是由通过术语nextID更新id(I1)引起的,我用它来确保每次断言id都会增加这是我的知识库:
规则:
事实:
我应该如何以不创建无限循环的方式修改规则?
c++ - Mask RCNN OpenVino - C++ API
我想使用 MaskRCNN 实现自定义图像分类器。
为了提高网络的速度,我想优化推理。
我已经使用过 OpenCV DNN 库,但我想用 OpenVINO 向前迈出一步。
我成功使用 OpenVINO 模型优化器 (python) 来构建代表我的网络的 .xml 和 .bin 文件。
我使用 Visual Studio 2017 成功构建了 OpenVINO 示例目录并运行了 MaskRCNNDemo 项目。
然后我试图在一个单独的项目中重现这个项目......首先我必须观察依赖关系......
有了它,我用我自己的类和打开图像的方式(多帧 tiff)构建了一个新项目。这项工作没有问题,我不会描述(我使用 CV DNN 推理引擎没有问题)。
我想构建与 MaskRCNNDemo 相同的项目:CustomIA
我将以下 dll 添加到项目目标目录:
我成功编译并执行,但我遇到了两个问题:
旧代码:
输出 :
新代码:
输出 :
第二期:
当我尝试从新代码中提取我的 ROI 和掩码时,如果我有一个“匹配”,我总是有:
- 分数 =1.0
- x1=x2=0.0
- y1=y2=1.0
但是面具看起来很好提取......
新代码:
然后,当我没有正确的 bbox 坐标时,我不可能将蒙版放置在图像中并调整其大小......
有人知道我做得不好吗?
如何使用 cpu_extension 正确创建和链接 OpenVINO 项目?
谢谢 !