问题标签 [vgg-net]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
machine-learning - 使用 Torch 训练的 VGG 人脸
有什么方法可以通过训练有素的 VGG 和火炬传递系统中的现有图像?我使用的是 Ubuntu 14.04,不幸的是没有 GPU。我已经进行了相当广泛的搜索,但我发现的所有内容都需要 GPU。有没有其他方法可以在没有 Torch 的情况下使用 VGG?我愿意接受建议,但该方法不需要 GPU。
machine-learning - 特定格式的VGG特征提取
我正试图让这个回购工作。我按照说明使用此脚本(取自同一个 repo)获取示例数据:
在下一步中,他们说我需要sample video frames and extract VGG features for the frames
。我不完全确定如何做到这一点。我已按照Caffe 的说明进行操作,但功能的格式不同。
那么如何提取与 ? 格式相同的 VGG 特征yt_allframes_vgg_fc7_val.txt
?
tensorflow - 关于运行 vgg 模型的图像缩放操作
在阅读VGG 模型的 Tensorflow 实现时,我注意到作者对输入的 RGB 图像执行了一些缩放操作,如下所示。我有两个问题:是什么VGG_MEAN
意思以及如何进行设置?其次,为什么我们需要减去这些平均值来得到bgr
tensorflow - 有多少神经元进入 VGG 的每一层?
你能告诉我每一层有多少神经元吗?我觉得这将提高我对 VGG 中正在发生的事情的理解。
让我们在这里使用这段代码来获得一些具体的东西。
https://github.com/machrisaa/tensorflow-vgg/blob/master/vgg19.py#L46
在这一行中,我看到输入了 224x224x3(图像)。在代码中的每一行之后(每行代表一个层),该图像的尺寸会发生什么变化?
谢谢你。
neural-network - Caffe:vgg 网络的可变输入图像大小
我正在尝试使用 caffe 从 VGG 网络中提取卷积层而不是 FC 层的特征。在这种情况下,理论输入图像大小可能是任意的。但似乎 VGG 网络是在裁剪为 224x224 像素大小的图像上训练的。所以我在 deploy.prototext 中定义了一个输入数据层:
我试图修改 width = 500\height = 500\crop_size = 500 但失败了。Caffe 报错:“Cannot copy param 0 weights from layer 'fc6'; 形状不匹配。源参数形状为 1 1 4096 25088 (102760448);目标参数形状是 4096 131072 (536870912)。要从头开始学习该层的参数,而不是从保存的网络中复制,请重命名该层。”</p>
我怎么可能在对输入层来说太大的图像上运行而不进行裁剪?
deep-learning - caffe:用 VGG16 替换 AlexNet 时网络不收敛,但其他一切都一样
我一直在使用 AlexNet 进行逐像素回归任务(深度估计)。现在我想用 VGG 网络替换 AlexNet,因为它应该会更好。
这是我使用的 AlexNet:
这是我正在使用的 VGG:
学习率是:0.0005
训练 AlexNet 时,损失收敛到大约 5,而使用 VGG 时,网络根本不收敛。它始终保持在 30,即使我一直在降低 learning_rate 甚至降低 mult_lr。有谁知道还有什么问题?我 100% 确定只有 .prototxt 文件不同,其他一切都完全相同。
python - VGG 16/19 慢运行时
当我尝试使用 Caffe 和 Python(2.7 和 3.5)从预训练的 VGG 16/19 模型中获取输出时,net.forward() 步骤(在我的笔记本电脑的 CPU 上)需要 15 秒以上。
我想知道是否有人会告诉我为什么会这样,就像许多其他模型(即 ResNet、AlexNet)一样,我会在瞬间得到输出,这是迄今为止我发现的唯一一个表现不佳的模型.
我正在使用的代码如下:
抱歉,这可能是一个非常菜鸟的问题,并提前感谢任何花时间回答的人。
tensorflow - 使用 Keras 微调 VGG 时的输入形状问题
我正在尝试微调 VGG-16 的最后一层。这是我制作新模型的代码部分:
我收到以下错误:
tensorflow.python.framework.errors_impl.InvalidArgumentError:两个形状中的维度 1 必须相等,但对于输入形状为 [4096,1000]、[4096,2622] 的“Assign_30”(操作:“Assign”)分别为 1000 和 2622 .
如果我尝试微调所有完全连接的部分include_top=False
而不仅仅是 softmax 激活,它对我有用。
有什么我想念的吗?