问题标签 [nvidia-digits]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
caffe - ImportError:没有名为 flask.ext.socketio 的模块:DIGITS 安装错误
我已经安装了flask-socketio
,
当我尝试运行数字时,它向我显示以下错误
如何解决这个问题?谢谢
ubuntu - CURAND_STATUS_LAUNCH_FAILURE: caffe installation
I had already installed Cuda 7.5
and now I have installed Cuda 8.0
. The Nvidia card is TITAN X (Pascal). I also only activated the following compute abilities
CUDA_ARCHfield in
makefile.config` (the rest are commented):
I successfully could run make all
and make test
for Caffe
installation, however, when I tried to run make runtest
after some time it is showing error:
When I type
ldd ./build/tools/caffe | grep cuda
, I get
libcudart.so.7.5 => /usr/lib/x86_64-linux-gnu/libcudart.so.7.5 (0x00007fd3ea210000)
libicudata.so.55 => /usr/lib/x86_64-linux-gnu/libicudata.so.55 (0x00007fd3c9f3c000)
How to remove *.so of cuda7? or what is possible solution?Thanks
tensorflow - Tensorflow:设备序号之间不支持对等访问
如果我有,是否仍然可以在某种多 gpu 设置中运行训练Peer access not supported between device ordinals
?(据我所知,GPU 是“未连接的”)例如通过在 GPU 上分别计算每个批次,然后在 CPU 上合并,因为我理解这是方式带有 Caffe 后端的 DIGITS 中的“批量累积”工作。
原始输出:
caffe - 如何将外部预构建的 .LMDB 文件导入 NVIDIA DIGITS?
我有几个数据库,我需要在 NVIDIA DIGITS 上对它们进行分类。但是将我的大数据导入DIGITS需要很多时间(2-4天)!!!想象一下,我已将 2 个图像集转换为 .lmdb 形式,例如:
现在我需要连接这两个 .lmdb 数据库并节省时间。所以我在 python 中分别完成了合并两个 LMDB 数据库以馈送到网络(caffe)
我有第三个数据集,其中包含: train_db 和 val_db 文件夹,每个文件夹都包含上面的 data.mdb 和 lock.mdb 文件。
我需要将这些导入到 DIGITS 中,以便在它们上训练网络。
我的问题是:
1-我应该部分导入folders
train_db 和 val_dbimage LMDB
吗?
2-我搜索label LMDB
但我不明白我应该在这部分做什么。你能清楚地解释我应该怎么做吗?
非常感谢您的帮助。
nvidia-digits - Nvidia Digits 准确度和损失图数据
我在 Nvidia Digits 5 中训练了我的模型,现在我想提取在训练期间生成的准确度和损失图以生成报告。这些数据是否保存在某处,以便可以提取这些图的数据,以便我可以在 Python 中绘制它,并可能最终修改这些图以比较不同的模型等?
nvidia-digits - fcn_alexnet.caffemodel 在 DIGITS 的标准分段网络中不可见
我想使用 NVIDIA DIGITS 进行图像分割。根据本教程,https://github.com/NVIDIA/DIGITS/tree/master/examples/semantic-segmentation,我创建了名为“fcn_alexnet.caffemodel”的 caffmodel。
但是,它没有显示在我的 DIGITS 页面上。我该怎么做才能将其添加到 DIGITS 中?
caffe - 使用 coremltools 将 caffe 模型转换为 CoreML 会导致预测不一致
我已经使用 Caffe 和 NVIDIA 的 DIGITS 训练了一个模型。在 DIGITS 上对以下图像进行测试,结果如下:
当我从 DIGITS 下载模型时,我得到snapshot_iter_24240.caffemodel
了deploy.prototxt
,mean.binaryproto
和labels.txt
. (而且solver.prototxt
我train_val.prototxt
认为不相关)
我coremltools
用来将 caffemodel 转换为 mlmodel,运行以下命令:import coremltools
代码输出以下内容:
大约 45 秒后food.mlmodel
生成。我使用 Xcode 9.0 beta 3 (9M174d) 将它导入到 iOS 项目中,并在单个视图 iOS 项目中运行以下代码。// // ViewController.swift // SeeFood // // 由 Reza Shirazian 于 2017 年 7 月 23 日创建。// 版权所有 © 2017 Reza Shirazian。版权所有。//
输出以下内容:
这完全不符合模型在 DIGITS 上的表现。我不确定我做错了什么,或者我是否错过了一步。我尝试在没有的情况下创建模型,mean.binaryproto
但这没有任何区别。
如果这里有帮助的话deploy.prototxt
object-detection - Nvidia 数字对象检测自己的数据集
根据 Nvidia 网站上的信息,Digits 使用 Kitti 格式的数据集。Digits 或外部应用程序中是否有可能准备此类数据集,或者我必须自己编写?我想简单地在显示的图像上绘制边界框,然后将其转换为 txt 适当的 txt 文件。提前致谢!
machine-learning - 图像分类器的训练数据中每个类的大小是否必须相等?
我目前正在使用 Nvidia DIGITS 训练图像分类器。我正在下载 1,000,000 张图像作为ILSVRC12数据集的一部分。您可能知道,该数据集包含 1,000 个类别,每个类别包含 1,000 张图像。问题是很多图像是从死的 Flickr URL 下载的,因此在我的数据集的相当一部分(大约 5-10%)中填充了下面显示的通用“不可用”图像。我计划遍历并删除这个“通用”图像的每个副本,从而使我的数据集只剩下与每个类相关的图像。
这个动作会使类的大小不均匀。它们不再包含 1,000 张图像。它们每个将包含 900-1,000 张图像。每个班级的人数必须相等吗?换句话说,我可以在不影响分类器准确性的情况下删除这些通用图像吗?提前感谢您的反馈。