问题标签 [intel-tensorflow]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
2 回答
349 浏览

tensorflow - 使用 NHWC 数据格式的 Tensorflow Intel MKL 优化

TensorFlow使用英特尔 MKL优化编译,许多操作将得到优化并支持 NCHW。

有人可以解释一下,为什么英特尔 MKL 比 NHWC 更支持 NCHW 格式?

0 投票
1 回答
575 浏览

tensorflow - 为英特尔至强黄金 6148 构建张量流

我有一台运行两个 Intel xeon gold 6148 和 tensorflow 的服务器。当我使用 pip 安装 tf 时,我收到一条消息,指出我的安装未使用 AVX2 和 AVX512。因此,为了获得最佳性能,我尝试使用 docker 从源代码构建 tf。我是按照https://www.tensorflow.org/install/source这样做的,但是对于我使用的 bazel build 命令:

按照https://software.intel.com/en-us/articles/intel-optimization-for-tensorflow-installation-guide
但是这个安装比标准的 pip 安装性能差很多。

所以,总结一下:安装 tensorflow 和至强金架构的最佳方式是什么?

0 投票
1 回答
264 浏览

python - 如何在 ML.NET 上加载和运行 Intel-Tensorflow 模型

环境:Tensorflow 2.4、Intel-Tensorflow 2.4

据我所知,pb格式的Tensorflow模型可以加载到ML.NET上。

但是,我使用的是一个量化包 LPOT(https://github.com/intel/lpot),它利用了英特尔优化的 Tensorflow(https://github.com/Intel-tensorflow/tensorflow)。尽管 Intel-Tensorflow 是基于 Tensorflow 构建的,但它使用了一些在 Tensorflow 上没有注册 OpKernel 的量化操作(例如,在 TF 上不推荐使用“QuantizedMatmulWithBiasAndDequantize”)。因此,如果不安装 Intel-Tensorflow,量化模型无法在原生 Tensorflow 环境下运行。

我的目标是在 ML.NET 上运行这个量化的 pb Intel-Tensorflow 模型,有人知道 ML.NET 上是否支持 Intel-Tensorflow 吗?或者有没有其他方法可以做到这一点?

非常感谢任何帮助/建议。

0 投票
1 回答
203 浏览

python - 英特尔优化的 TensorFlow 不支持 oneDNN

情况1

框架:Tensorflow 2.5.0、Intel-Tensorflow 2.5.0

环境:谷歌 Colab

我有一个由LPOT量化的成功量化模型,可以在不使用 LPOT API 的情况下运行推理,因此我编写了以下推理代码:

运行线路时predictions = sess.run(output, {input_tensor_name: x})

无论是否Intel-Tensorflow==2.5.0安装都会发生此错误,也不会在os.environ['TF_ENABLE_ONEDNN_OPTS'] = '1'显式设置时解决。

另一方面,当我在 VS Code 中运行相同的代码时,它返回与Case 2Python 3.6.8 64-bit base: Conda中相同的错误消息。

案例2

框架:Tensorflow 2.4.0、Intel-Tensorflow 2.4.0

环境:谷歌 Colab

这个案例运行良好并打印出预测的 MSE 损失,但是当我卸载并仅使用官方 Tensorflow 运行时,同时在案例 1 ( )Intel-Tensorflow 2.4.0中运行同一行:predictions = sess.run(output, {input_tensor_name: x})

os.environ['TF_ENABLE_ONEDNN_OPTS'] = '1'即使明确设置,错误仍然存​​在。

结论

我相信这两种情况都是由相同类型的错误引起的,即没有注册 OpKernel 来支持 Op ...

我被告知,通过官方Tensorflow v2.5安装和环境变量TF_ENABLE_ONEDNN_OPTS=1集(参考),量化模型应该在支持 oneDNN 的情况下运行。但在 v2.4 和 v2.5 中似乎都不是这样。

我的问题是如何在Tensorflow 2.5无需安装的情况下获得支持 oneDNN 的官方环境Intel-Tensorflow?或者为什么不起作用Intel-Tensorflow 2.5?谢谢。

0 投票
1 回答
77 浏览

python - 断言错误:未从模型格式中正确检测到框架

我正在尝试英特尔低精度优化工具,我正在关注这个 github(https://github.com/intel/lpot/tree/master/examples/tensorflow/object_detection)。当我运行如下量化命令时

我收到以下错误。

请帮忙!

0 投票
1 回答
35 浏览

python - 来自 lpot 的“.prepare_dataset.sh”命令出错

我正在关注 lpot 的这个 github(https://github.com/intel/lpot/tree/master/examples/tensorflow/object_detection),在下载数据集的第 5 步中,我收到以下错误。无法继续。

提前致谢。

0 投票
1 回答
64 浏览

intel - “ValueError: numpy.ndarray size changed” 在 tensorflow 模型中尝试 Intel lpot 时

在张量流模型中尝试英特尔低精度优化工具时,出现一些值错误。

请在下面找到我尝试过的命令:

通过运行,我收到以下错误:

将 pycocotools._mask 导入为 _mask 文件“pycocotools/_mask.pyx”,第 1 行,在 init pycocotools._mask ValueError: numpy.ndarray size changed,可能表示二进制不兼容。预期来自 C 标头的 88,从 PyObject 获得 80

提供我遵循的 git hub 链接: https ://github.com/intel/neural-compressor/tree/master/examples/tensorflow/object_detection