问题标签 [tensorflowsharp]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c# - 如何在 TensorFlowSharp 中重塑张量
TensorFlowSharp是TensorFlow在 c# 平台上的封装。点击跳转到TensorFlowSharp github
现在我需要将形状为 [32,64,1] 的张量重塑为形状为 [1, 2048] 的新张量。但是当我参考官方 API 文档时,用法看起来是这样的:
问题是我不知道如何以TFOutput
任何建议的方式表达我需要的形状:)!
c# - 创建张量流图时出现异常CallbackOnCollectedDelegate
我尝试使用 TensorFlowSharp 构建一个小的 tensorflow 应用程序,有时我会收到此异常:
托管调试助手“CallbackOnCollectedDelegate”
对于函数TensorFlowSharp!TensorFlow.TFBuffer+BufferReleaseFunc::Invoke
我试图找出它的含义,但我没有完全理解这些解释。这是引发异常的代码部分:
有人知道我应该怎么做才能防止这种异常吗?
布鲁诺
c# - TensorFlow RNN 对分组数据的限制
这是一个有点抽象的问题,如果开始可行,我希望有人能给出一个好的答案,我计划使用 TensorFlowSharp 包装器将其实现为 RNN。
然而,在实现这一点时,我遇到了一些几乎是平台基础的问题;我想尽早避免一些陷阱;)
我有很多可以分组的数据,但是我如何强制执行不包括来自另一组的数据的权重/偏差,即始终留在组内..或者..我应该为每个组使用一个会话并且只提供/学习与该组相关的数据(55+组atm。)。
什么是最好的行动方案,让它学习一切,并希望它知道它应该坚持它的团队,或者以某种方式强制它或分裂它。
如果有人知道,这三者之间的表现会受到怎样的影响。
c# - 如何将 Byte[](解码为 PNG 或 JPG)转换为 Tensorflows 张量
我正在尝试在 Unity 的项目中使用 Tensorflowsharp。
我面临的问题是,对于转换,您通常使用第二个 Graph 将输入转换为张量。Android 不支持使用的函数 DecodeJpg 和 DecodePng 那么如何将该输入转换为张量?
其他解决方案似乎会产生不准确的结果。
也许以某种方式使用 Mat 对象?
和我的编辑:我在 Unity 的 c# 中实现了一些类似的东西,它可以部分工作。它根本不准确。我要如何找出平均值?而且我找不到有关 rgb 顺序的任何信息。?我对此真的很陌生,所以也许我只是忽略了它。(在 Tensorflow.org 上)使用在 1.4 中训练的 MobileNet。
c# - 将 pb 模型文件加载到 TensorFlowSharp
我有一些 Keras 经验并且正在学习 TensorFlowSharp ( https://github.com/migueldeicaza/TensorFlowSharp )。使用 ExampleInceptionInference 项目,我想使用我在 Keras python 代码中训练的模型。
(我在这里使用@jdehesa 回复创建了一个 .pb 文件:如何将 Keras .h5 导出到 tensorflow .pb?)
当我在 TensorFlowSharp 中加载 .pb 模型文件时,此行失败:
似乎 graph["input"]
和 graph["output"]
都是空的。我是否需要命名模型中的图层?
我使用的 Keras 模型是 VGG16 的修改和再训练版本。
是否可以在 TensorFlowSharp 中输出命名层的列表?或者是否可以以其他方式引用它们?(按数字?)
c# - TFException:期望 arg[0] 为字符串,但提供了浮点数 (Unity3d)
我正在使用来自TensorFlow的语音命令模型示例和 Unity3d 中的变量:
然后像这样向模型添加输入:
softmax 的例外是这样的:
这是一个铸造问题吗?以及如何管理它以与 TensorFlowSharp 一起工作?
c# - 如何序列化 dnnclassifier (serving_input_reciever) 所需的张量输入
我希望能够使用 tensorflowsharp 在 IIS 之上使用 dnnclassifier(估计器)。该模型之前已在 python 中进行过训练。到目前为止,我现在可以生成 PB 文件,知道正确的输入/输出,但是我被困在使用字符串输入的 tensorflowsharp 中。
我可以创建一个有效的 .pb 虹膜数据集文件。它使用以下fete_spec:
我创建了一个简单的 c# 控制台来尝试启动它。输入应该是“input_example_tensor”,输出位于“dnn/head/predictions/probabilities”中。这是我在 alex_zu 在此处使用 saved_model_cli 命令提供帮助后发现的。
据我所知,所有 tensorflow 估计器 API 的工作都是这样的。
问题来了: input_example_tensor 应该是一个字符串格式,它将由 ParseExample 函数在内部解析。现在我被困住了。我找到了 TFTensor.CreateString,但这并不能解决问题。
此示例将给出以下错误:
如何以可以正确使用 pb 文件的方式序列化张量?
我还在github上发布了这个问题,在这里你可以找到 iris 示例 python 文件、pb 文件和控制台应用程序。在我看来,解决这个问题为所有拥有古老生产环境的 tensorflow 用户(比如我)创造了一个简洁的解决方案。
tensorflow - Tensorboard for Windows for Tensorflowsharp
是否可以在不安装 tensorflow 和 python 的情况下在 Windows 上运行独立版本的 Tensorboard。
我只想查看 Tensorflowsharp 的输出。
c# - Tensorflowsharp 结果 getvalue() 很慢
我正在使用TensorflowSharp在Android手机上使用神经网络运行评估。我正在使用Unity构建项目。
我正在使用此处要求下列出的 tensorflowsharp 统一插件:https ://github.com/Unity-Technologies/ml-agents/blob/master/docs/Using-TensorFlow-Sharp-in-Unity.md 。
一切正常,但是提取结果非常慢。
我正在运行的网络是一个自动编码器,输出是一个尺寸为 128x128x16 的图像(是的,有很多输出通道)。
评估在约 0.2 秒内完成,这是可以接受的。但是,当我需要使用results[0].GetValue()
它提取结果数据时非常慢。
这是我运行神经网络的代码
问题: 我将结果转换为浮点数的最后一行需要大约 1.2 秒。
将结果数据读入浮点数组真的是网络实际评估时间的 5 倍以上吗?
是否有另一种方法来提取结果值?
tensorflow - 您必须使用 dtype float 和 shape [?,3] 为占位符张量“X_1”提供一个值
我通过 Jupyter Notebook 写了一个非常简单的模型
然后我用 TensorflowSharp 加载它
最后,我得到了以下异常:
TensorFlow.TFException HResult=0x80131500 메시지=您必须为占位符张量“X_1”提供一个值,其 dtype 为 float 和 shape [?,3]
[[{{node X_1}} = Placeholderdtype=DT_FLOAT, shape=[?,3], _device="/job:localhost/replica:0/task:0/device:CPU:0"]] 소스=TensorFlowSharp StackTrace: at TensorFlow.TFStatus.CheckMaybeRaise(TFStatus incomingStatus, Boolean last) at TensorFlow.TFSession.Run(TFOutput [] 输入,TFTensor[] inputValues,TFOutput[] 输出,TFOperation[] targetOpers,TFBuffer runMetadata,TFBuffer runOptions,TFStatus status) at TensorFlow.TFSession.Runner.Run(TFStatus status) at tensorflowsharp_model_restore.Program.Main(String[] args) 在 G:\tensorflow\tensorflowsharp\tensorflowsharp_model_restore\tensorflowsharp_model_restore\Program.cs:line 29