问题标签 [windows-machine-learning]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
windows - 创建 DirectX LearningModelSession 期间的访问冲突
我正在使用 Windows.AI.MachineLearning。我可以创建一个使用 CPU 的 LearningModelSession,但是如果我指定一个 DirectX 设备,我会遇到私有内存的访问冲突。
我在 GeForce GTX 1050 Ti 上使用最新的 nVidia 驱动程序。对于发现我无法创建 DirectX LearningModelSession 的原因的任何帮助,我将不胜感激。
deep-learning - CNTK 和 WIN ML 有什么区别
我知道我的问题是基本问题,但我需要澄清一下。CNTK 是我目前使用的深度学习框架,可用于在 windows 机器上训练和评估模型。如果我想在 Windows 设备上运行用 CNTK 训练的模型,我应该使用 WIN ML。我是对的还是WIN ML也可以在Windows机器上使用?
windows - Windows 机器学习 API:没有 VS 的 MCVE 命令行示例
对于C++/WinRT,微软显然付出了相当大的努力来使他们的 API 符合标准。最后,他们还发布了机器学习 API以及代码示例 repo。
不幸的是,所有示例都依赖于 Visual Studio。即使是最简单的命令行演示(CustomTensorization)也需要.snl
文件和 VisualStudio。
只需下载 SDK 并使用常规文件,是否可以在没有 VisualStudio 的情况下为此 API 编写代码make
?
如果是这样,怎么做?请张贴或指向MCVE。
谢谢你。
windows - 在 c# 中为 Microsoft HoloLens 加载 ONNX 模型
使用 Windows 机器学习 API 加载和评估 ONNX 模型时遇到问题。我尝试使用 Microsoft HoloLens 加载模型以进行评估,但是当我评估模型时,代码会生成一些异常,例如:"No suitable kernel definition found for op. Unsqueeze".
有人在使用 HoloLens 时发现了同样的问题吗?
c# - Windows ML 学习模型可以通过 UWP 之外的 C# 访问吗?
我有一个我希望评估图像的 ONNX 模型,来自 C# Windows 服务(非 UWP)。除了构建 UWP 应用程序之外,我看不到任何从 C# 访问 Windows ML 框架的方法,对吗?
我发现这个帖子似乎表明它可以来自 C++。
是否至少有一个众所周知的 COM 包装器或其他东西?
windows-machine-learning - 在 WinML 中加载 ONNX 模型时如何解决“REGDB_E_CLASSNOTREG”错误
我正在尝试重现https://docs.microsoft.com/en-us/windows/ai/windows-ml/get-started-desktop中描述的 WinML 教程,需要帮助解决“访问冲突读取位置”错误在加载模型时。
安装 Visual Studio 2017、Windows 10、内部版本 17763 并按照教程中的说明进行操作。想知道是否可能是由于访问控制问题,我尝试将 ONNX 文件放在多个位置,甚至在解决方案文件夹中,尝试调试 x64 和 x86 风格,更改文件权限,但仍然不起作用。
我期望 LearningModel::LoadFromFilePath(modelPath); 成功并返回一个有效的句柄。
进一步调试后,下面代码中的WINRT_RoGetActivationFactory返回REGDB_E_CLASSNOTREG Class not registered
windows-machine-learning - LearningModel.LoadFromStorageFileAsync faster_cnn/屏蔽rcnn模型“无法识别的属性:ceil_mode”异常
我已经下载了 SqueezeNetObjectDetection 示例。让它运行成功。
但后来我尝试加载更快的 rcnn 模型并收到异常消息:“未指定的错误\r\n\r\n无法识别的属性:ceil_mode”。当我尝试加载 mask rcnn 模型时,结果相同。
uwp - 如何控制 Windows ML 用于评估的线程数
我正在尝试针对其他后端对 Windows ML 进行基准测试,并看到一些奇怪的推理时间分布(参见情节)。这是使用 ARM64 架构的 CPU 后端。在 ARM 上没有双峰分布。
我对为什么推理时间的分布有两种模式没有很好的直觉。似乎没有时间相关性,我每秒运行一次网络,它看似随机地在“慢”和“快”模式之间切换。
我的猜测之一是,有时 Windows ML 可能决定使用两个线程,有时决定使用一个线程,这可能取决于估计的设备负载。但是,与 TensorFlow Lite 或 Caffe2 不同,我还没有找到一种方法来控制 Windows ML 使用的线程数。所以问题是:
有没有办法控制 Windows ML 在 CPU 模式下用于评估的线程数,或者在任何情况下都保证只使用一个线程进行计算?
也欢迎其他可能导致这种奇怪行为的指针。
c++ - 绑定模型不评估图像。其背后的可能原因是什么?
我正在关注 cpp教程。我已经用自己的模型替换了模型,并替换了输入和输出张量,here和here。模型具有约束力,但在评估步骤中突然中止。
据我所知,我的代码和模型没有任何问题。我试图将输入图像更改为各种尺寸和颜色模式(灰度和 rgb),但没有任何效果。
所做的更改:
控制台输出: https ://imgur.com/wKd9RXK
错误:
[文本形式的控制台输出]
在“默认”设备上加载模型文件“D:\Projects\Windows-Machine-Learning-master\Samples\SqueezeNetObjectDetection\Desktop\cpp\Debug\wifi3.onnx”
以 531 个刻度加载的模型文件
正在加载图像...
捆绑...
现在...
运行模型...
为什么
错误消息:
调试错误!
程序:.../CPP.exe
abort() 已被调用
型号链接:https ://www.dropbox.com/s/fudgynpislpsyta/wifi3.onnx?dl=0
调试器输出:
在 SqueezeNetObjectDetectionCPP.exe 中的 0x75013442 处引发异常:Microsoft C++ 异常:内存位置 0x006FF5C8 处的 winrt::hresult_error。发生了
python - 如何修复“windows_configure_web_node.py FileNotFoundError 中的失败”
我正在尝试将 Microsoft 机器学习服务器 (9.4) 配置为在我的本地计算机上工作。
我一直坚持遵循以下说明: https ://docs.microsoft.com/en-us/machine-learning-server/operationalize/configure-machine-learning-server-one-box
在
我尝试重新安装机器学习服务器(不包括 R),结果相同。
这是尝试配置机器学习服务器时显示的错误消息:
其他人是否已经遇到/解决了这个问题?非常感谢!