问题标签 [tensorflowsharp]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
2058 浏览

c# - 如何在 TensorFlowSharp 中重塑张量

TensorFlowSharpTensorFlow在 c# 平台上的封装。点击跳转到TensorFlowSharp github

现在我需要将形状为 [32,64,1] 的张量重塑为形状为 [1, 2048] 的新张量。但是当我参考官方 API 文档时,用法看起来是这样的:

问题是我不知道如何以TFOutput 任何建议的方式表达我需要的形状:)!

0 投票
2 回答
265 浏览

c# - 创建张量流图时出现异常CallbackOnCollectedDelegate

我尝试使用 TensorFlowSharp 构建一个小的 tensorflow 应用程序,有时我会收到此异常:

托管调试助手“CallbackOnCollectedDelegate”

对于函数TensorFlowSharp!TensorFlow.TFBuffer+BufferReleaseFunc::Invoke

我试图找出它的含义,但我没有完全理解这些解释。这是引发异常的代码部分:

有人知道我应该怎么做才能防止这种异常吗?

布鲁诺

0 投票
0 回答
236 浏览

c# - TensorFlow RNN 对分组数据的限制

这是一个有点抽象的问题,如果开始可行,我希望有人能给出一个好的答案,我计划使用 TensorFlowSharp 包装器将其实现为 RNN。

然而,在实现这一点时,我遇到了一些几乎是平台基础的问题;我想尽早避免一些陷阱;)

我有很多可以分组的数据,但是我如何强制执行不包括来自另一组的数据的权重/偏差,即始终留在组内..或者..我应该为每个组使用一个会话并且只提供/学习与该组相关的数据(55+组atm。)。

什么是最好的行动方案,让它学习一切,并希望它知道它应该坚持它的团队,或者以某种方式强制它或分裂它。

如果有人知道,这三者之间的表现会受到怎样的影响。

0 投票
2 回答
3841 浏览

c# - 如何将 Byte[](解码为 PNG 或 JPG)转换为 Tensorflows 张量

我正在尝试在 Unity 的项目中使用 Tensorflowsharp。

我面临的问题是,对于转换,您通常使用第二个 Graph 将输入转换为张量。Android 不支持使用的函数 DecodeJpg 和 DecodePng 那么如何将该输入转换为张量?

其他解决方案似乎会产生不准确的结果。

也许以某种方式使用 Mat 对象?

和我的编辑:我在 Unity 的 c# 中实现了一些类似的东西,它可以部分工作。它根本不准确。我要如何找出平均值?而且我找不到有关 rgb 顺序的任何信息。?我对此真的很陌生,所以也许我只是忽略了它。(在 Tensorflow.org 上)使用在 1.4 中训练的 MobileNet。

0 投票
3 回答
2917 浏览

c# - 将 pb 模型文件加载到 TensorFlowSharp

我有一些 Keras 经验并且正在学习 TensorFlowSharp ( https://github.com/migueldeicaza/TensorFlowSharp )。使用 ExampleInceptionInference 项目,我想使用我在 Keras python 代码中训练的模型。

(我在这里使用@jdehesa 回复创建了一个 .pb 文件:如何将 Keras .h5 导出到 tensorflow .pb?

当我在 TensorFlowSharp 中加载 .pb 模型文件时,此行失败:

似乎 graph["input"]和 graph["output"]都是空的。我是否需要命名模型中的图层?

我使用的 Keras 模型是 VGG16 的修改和再训练版本。

是否可以在 TensorFlowSharp 中输出命名层的列表?或者是否可以以其他方式引用它们?(按数字?)

0 投票
1 回答
1165 浏览

c# - TFException:期望 arg[0] 为字符串,但提供了浮点数 (Unity3d)

我正在使用来自TensorFlow的语音命令模型示例和 Unity3d 中的变量:

然后像这样向模型添加输入:

softmax 的例外是这样的:

这是一个铸造问题吗?以及如何管理它以与 TensorFlowSharp 一起工作?

0 投票
1 回答
565 浏览

c# - 如何序列化 dnnclassifier (serving_input_reciever) 所需的张量输入

我希望能够使用 tensorflowsharp 在 IIS 之上使用 dnnclassifier(估计器)。该模型之前已在 python 中进行过训练。到目前为止,我现在可以生成 PB 文件,知道正确的输入/输出,但是我被困在使用字符串输入的 tensorflowsharp 中。

我可以创建一个有效的 .pb 虹膜数据集文件。它使用以下fete_spec:

我创建了一个简单的 c# 控制台来尝试启动它。输入应该是“input_example_tensor”,输出位于“dnn/head/predictions/probabilities”中。这是我在 alex_zu 在此处使用 saved_model_cli 命令提供帮助后发现的。

据我所知,所有 tensorflow 估计器 API 的工作都是这样的。

问题来了: input_example_tensor 应该是一个字符串格式,它将由 ParseExample 函数在内部解析。现在我被困住了。我找到了 TFTensor.CreateString,但这并不能解决问题。

此示例将给出以下错误:

如何以可以正确使用 pb 文件的方式序列化张量?

我还在github上发布了这个问题,在这里你可以找到 iris 示例 python 文件、pb 文件和控制台应用程序。在我看来,解决这个问题为所有拥有古老生产环境的 tensorflow 用户(比如我)创造了一个简洁的解决方案。

0 投票
1 回答
115 浏览

tensorflow - Tensorboard for Windows for Tensorflowsharp

是否可以在不安装 tensorflow 和 python 的情况下在 Windows 上运行独立版本的 Tensorboard。

我只想查看 Tensorflowsharp 的输出。

0 投票
1 回答
589 浏览

c# - Tensorflowsharp 结果 getvalue() 很慢

我正在使用TensorflowSharp在Android手机上使用神经网络运行评估。我正在使用Unity构建项目。

我正在使用此处要求下列出的 tensorflowsharp 统一插件:https ://github.com/Unity-Technologies/ml-agents/blob/master/docs/Using-TensorFlow-Sharp-in-Unity.md 。

一切正常,但是提取结果非常慢。

我正在运行的网络是一个自动编码器,输出是一个尺寸为 128x128x16 的图像(是的,有很多输出通道)。

评估在约 0.2 秒内完成,这是可以接受的。但是,当我需要使用results[0].GetValue()它提取结果数据时非常慢。

这是我运行神经网络的代码

问题: 我将结果转换为浮点数的最后一行需要大约 1.2 秒。

将结果数据读入浮点数组真的是网络实际评估时间的 5 倍以上吗?

是否有另一种方法来提取结果值?

0 投票
0 回答
221 浏览

tensorflow - 您必须使用 dtype float 和 shape [?,3] 为占位符张量“X_1”提供一个值

我通过 Jupyter Notebook 写了一个非常简单的模型

然后我用 TensorflowSharp 加载它

最后,我得到了以下异常:

TensorFlow.TFException HResult=0x80131500 메시지=您必须为占位符张量“X_1”提供一个值,其 dtype 为 float 和 shape [?,3]
[[{{node X_1}} = Placeholderdtype=DT_FLOAT, shape=[?,3], _device="/job:localhost/replica:0/task:0/device:CPU:0"]] 소스=TensorFlowSharp StackTrace: at TensorFlow.TFStatus.CheckMaybeRaise(TFStatus incomingStatus, Boolean last) at TensorFlow.TFSession.Run(TFOutput [] 输入,TFTensor[] inputValues,TFOutput[] 输出,TFOperation[] targetOpers,TFBuffer runMetadata,TFBuffer runOptions,TFStatus status) at TensorFlow.TFSession.Runner.Run(TFStatus status) at tensorflowsharp_model_restore.Program.Main(String[] args) 在 G:\tensorflow\tensorflowsharp\tensorflowsharp_model_restore\tensorflowsharp_model_restore\Program.cs:line 29