问题标签 [caffe2]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
caffe - 将 nngraph 模型转换为 nn 模型
我想将 pix2pix 图像转换为使用 nngraph 构建的图像翻译模型 ( https://github.com/phillipi/pix2pix )。
当我尝试使用 torch to caffe 工具(https://github.com/facebook/fb-caffe-exts#torch2caffe)将其转换为 caffe 模型时,我收到错误“unknown class nn.gModule”。
我还尝试通过来自 torch.utils.serialization 的 load_lua 在 pytorch 中加载 Torch 模型,但我得到了类似的错误。
因为,似乎不支持 nngraph 进行转换。有没有一种方法可以将 nngraph 模型转换为 nn 模型而无需重写或重新训练?下线,我想将 pix2pix 模型转换为各种格式,如 caffe、caffe2、coreML 等,以测试在移动环境中的性能。
谢谢
caffe - 在 Caffe2 中,是否有任何 caffemodel 处理聊天机器人对话
在 Caffe2 中,是否有任何 caffemodel 处理聊天机器人对话。是否有任何模型有助于处理文本分类/分析
是否有任何处理 Caffe2 中给出的文本语句的 DNN 示例/示例(https://caffe2.ai/docs/applications-of-deep-learning.html)
“随着使用 DNN 编写更复杂的机器人,它们能够理解您的陈述,更重要的是,了解上下文,机器人将能够进行更长时间、更有意义的对话,而您甚至不会意识到您不是在与真人聊天。”
提前致谢...
caffe2 - 如何在 caffe2 中微调网络
关于如何微调参数的信息很少,关于如何在 caffe2 中微调网络真的让我很困惑。谁能给我看一些关于微调部分的代码。非常感谢。
顺便说一句,在链接:Food101 SqueezeNet Caffe2 number of iterations,看来作者已经成功地微调了网络。
补充:这是我的火车部分的一些代码,
但是,当我运行代码时,出现警告的错误
发生。我应该如何修改代码?
python - caffe2 获取学习率:找不到 blob:gpu_0/conv1_w_lr
resnet50_train.py中获取学习率的代码如下:
当我运行代码时,发生了错误:
回溯(最后一次调用):文件“/home/caffe2/caffe2/caffe2/python/examples/resnet50_trainer.py”,第 475 行,在 main() 文件“/home/caffe2/caffe2/caffe2/python/examples/ resnet50_trainer.py”,第 471 行,在主 Train(args) 文件中“/home/caffe2/caffe2/caffe2/python/examples/resnet50_trainer.py”,第 400 行,在 Train explog 文件中“/home/caffe2/caffe2/caffe2 /python/examples/resnet50_trainer.py",第 163 行,在 RunEpoch learning_rate = workspace.FetchBlob(prefix + '/conv1_w_lr') 文件 "/home/caffe2-master/caffe2/build/caffe2/python/workspace.py",第 323 行,在 FetchBlob 中返回 C.fetch_blob(StringifyBlobName(name)) RuntimeError: [enforce fail at pybind_state.cc:152] ws->HasBlob(name)。找不到 blob:gpu_0/conv1_w_lr
是什么导致了问题?我应该重新编译任何依赖项还是可以使用任何其他函数来获得学习率?
caffe2 - Caffe2 安装正确但无法加载 glog 库
我通过“Prebuilt Caffe2 Python Wheel”安装了 caffe2,没有出现错误。但是运行第一个示例时,我收到以下错误消息,似乎无法找到/加载“/usr/local/opt/glog/lib/libglog.0.dylib”。
如果我导入 caffe2.python 它不会给我一个错误。usr/local/opt 中缺少 glog。
这是 Mac GPU 问题吗?我知道 CUDA 是个问题/不能在 Mac 上运行,或者还有什么我错过的/我必须做的。?
谢谢你的帮助。
machine-learning - Ubuntu 上的 LMDB 错误
我正在阅读 caffe2 中的 MNIST 教程,但遇到了以下错误:
为什么会这样?
deep-learning - 如何将 Caffe 训练的模型和参数转换为直接用于 caffe2 中的推理?
我在 CPU 桌面上有一个训练有素的 caffe 模型。我想将它移植到移动平台以使用 Caffe2 进行推理。关于我应该如何处理它的任何见解?Caffe2 提供的脚本是否允许模型的转换和权重的重用?任何帮助,将不胜感激!谢谢!!
caffe - Caffe2 Flickr 模型 - 图像数据集需要什么预处理
我正在尝试在 caffe2 中运行 Flickr 样式模型,但我无法获得数据集所需的预处理步骤。请指导我。
提前致谢
c++ - caffe2张量转让、建造或复制
这是一个长镜头,如果您认为问题过于本地化,请投票结束。我在caffe2 github存储库上进行了搜索,打开了一个问题来询问相同的问题,在caffe2_ccp_tutorials存储库中打开了另一个问题,因为它的作者似乎最了解它,阅读了caffe2::Tensor和caffe2::CUDAContext上的 doxygen 文档,甚至浏览了 caffe2 的源代码,特别是tensor.h
,context_gpu.h
和context_gpu.cc
.
我知道目前caffe2 不允许将设备内存复制到 tensor。我愿意扩展图书馆并提出拉取请求以实现这一目标。我这样做的原因是我使用cv::cuda::*
在设备内存上运行的方法进行所有图像预处理,因此我认为在 gpu 上进行预处理显然是一个问题,只是将结果下载回主机上,然后让它从主机到设备重新上传到网络。
看着构造函数Tensor<Context>
我可以看到,也许只有
可能会实现我想要的,但我不知道如何设置<ContextForCopy>
然后将其用于构造。
此外,我看到我可以构建具有正确尺寸的张量,然后可能使用
我可以分配/复制数据。数据本身存储在 中std::vector<cv::cuda::GpuMat
,因此我必须对其进行迭代,然后使用cuda::PtrStepSz
或cuda::PtrStep
访问底层设备分配的数据。这与我需要复制/分配到caffe2::Tensor<CUDAContext>
.
自从我看到它的例子以来,我一直试图找出它是如何在内部Tensor<CPUContext>
复制Tensor<CUDAContext>
的,但我无法弄清楚,尽管我认为使用的方法是CopyFrom
. 如前所述,通常的示例是从 CPU 复制到 GPU:
我很惊讶还没有人遇到过这个任务,并且简短的搜索只产生一个未解决的问题,作者(@peterneher)或多或少地问同样的事情。
python - 可以直接从 gpu 给 Caffe 或 Caffe2 输入数据吗?
我已经阅读了 caffe2 教程并尝试了预训练模型。我知道 caffe2 将利用 GPU 来运行模型/网络。但是输入数据似乎总是来自 CPU(即主机)内存。例如,在Loading Pre-Trained Models中,加载模型后,我们可以通过以下方式预测图像
但是,应该在 CPU 范围内读取图像“img”。我寻找的是一个可以将图像(从视频解码并仍然驻留在 GPU 内存中)直接传输到预测模型的框架,而不是将其从 GPU 复制到 CPU 范围,然后再次传输到 GPU 进行预测结果。Caffe 或 Caffe2 是否为 python 或 C++ 提供了这样的功能或接口?还是我需要修补 Caffe 才能这样做?非常感谢。
这是我的解决方案:
我在 中发现tensor.h
,函数ShareExternalPointer()
完全可以做我想做的事。
以这种方式提供 gpu 数据,
然后运行预测网络
pInputTensor
预测网络的入口张量在哪里pPredictNet