问题标签 [vgg-net]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
2 回答
187 浏览

python - 使用 TensorFlow 从我自己的数据中使用 VGGnet 进行特征提取?

我用SIRI-WHU数据集预训练了VGG19,现在想提取特征,不知道怎么做。有人能帮助我吗?谢谢

0 投票
1 回答
915 浏览

python-3.x - 如何获得给定输入图像的 VGG 模型预测?

这里图像必须根据 VGG16 模型的输入类型进行转换。我为此使用了以下代码,我使用库中的 VGG16 模型并将预训练的值设置为 true

它给了我以下错误:

我想在应用转换并将其馈送到 VGG16 模型后预测给定输入图像的输出

0 投票
0 回答
328 浏览

deep-learning - 大小不匹配,m1:[1 x 512],m2:[25088 x 4096] 在 /pytorch/aten/src/TH/generic/THTensorMath.cpp:2070

目标:使用 pretained VGG16 对 CIFAR-10 图像进行分类。

请参阅此链接以进行概述: https ://colab.research.google.com/drive/10Wo95j3h7h7QMd8Xpueb50ieawxw5b4M

0 投票
1 回答
55 浏览

python - 为什么 vgg.prepare() 方法会创建给定图像的 9 个副本?

当我将 vgg.prepare() 应用于以下图像时,我得到了这个结果:输入

我使用这行代码:

并得到一张由给定图像的 9 个副本组合而成的图像:

输出

0 投票
0 回答
188 浏览

python - VGG16 Keras 获得非常低的准确率(~2%),而简单的 LeNet 达到 98%

我一直在尝试用大约 2000 张图像的数据集在 keras 中训练一个 VGG16 网络。当我在每个 epoch 之后始终达到 2% 左右的非常低的准确度时,就会出现问题,并且它会一直围绕这个数字波动。但是当我用一个简单的 leNet 训练它时,它达到了 99% 左右的高精度。我不知道问题是什么。我的代码中是否存在固有缺陷?更多的深度有时会对您的准确性产生负面影响吗?这两段代码都附在下面。抱歉,我没有训练过程的屏幕截图。

VGG16 代码:

乐网代码:

另外,需要明确的是,我使用的是手语词典中的数据集。我将视频分成图像。目标是能够通过图像分类识别美国手语单词。

0 投票
2 回答
497 浏览

python - 无法将 VGG16 层转换为顺序层

我正在尝试使用 VGG16 预训练模型进行图像分类。同样,我做了以下事情:

模型类型如下:

结果是:

然后,我将 Sequential 模型定义为:

然后,我尝试通过以下方式将其转换vgg16_model为顺序:

它向我显示如下错误:

如果有人可以帮助我解决这个问题,那就太好了。

0 投票
1 回答
52 浏览

python - 相关网络的前向传递输出在没有反向传播的情况下发生变化

我正在使用 Chainer 的相关模型 vgg(这里命名为 net)。每次运行以下代码时,都会得到不同的结果:

我检查了 vgg.prepare() 几次但它的输出是一样的,这里没有随机初始化(net 是一个预训练的 vgg 网络)。那么为什么会这样呢?

0 投票
1 回答
110 浏览

tensorflow - 合并一个 LSTM 模型输出和 VGG 模型输出时出错

我得到的错误是fc_model使用以下方法转换为张量:

在早期版本的 Keras

正在工作,但Merge已从新版本的 Keras 中删除。我想将输出 LSTM 模型和 VGG 模型相乘fc_model。谁能建议我什么?

0 投票
0 回答
150 浏览

tensorflow - 为什么我下面修改的 vgg-16 Keras 模型需要 1 小时才能运行一个 epoch

我的模型是

每张图像为 128*128*3。我的笔记本电脑上有 8 个 CPU,CPU 使用率约为 700%。为什么运行一个 epoch 大约需要 1 小时?如何提高性能?谢谢

更新

以下是我的模型的详细信息:

0 投票
0 回答
262 浏览

python - Keras 预训练 VGG19 模型的层输出为相同的输入产生不同的输出

我正在从给定图像的预训练 VGG19 ConvNet 中提取中间层输出。我希望如果我两次给出相同的图像,我应该得到相同的输出。但是,我没有得到相同的输出。为什么会发生这种情况以及如何解决这个问题?

附加细节: 我正在关注这篇论文。他们使用 VGG19 ConvNet 并从一些中间层(VGG22 表示第 2 层卷积之前的第 2 层)提取超分辨率图像和地面实况图像的特征。然后他们计算这两个特征集之间的均方误差并将其用作损失参数。现在,我的期望是,如果我只给出两次 Ground Truth Image,均方误差应该为零。但它没有发生吗?我在不同的迭代中得到不同的特征值,但图像相同。我还注意到,当我再次运行程序时,我得到了相同的值集。以下代码供参考:

在这里,我的期望是 features1 = features2,这不是

结果:

特点1:

特点2:

图片取自这里。小路:v1.3/Code/Ours/Images_GroundTruth/BSD200/335094.png

编辑 1:添加了额外的代码和结果