问题标签 [vgg-net]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 使用 TensorFlow 从我自己的数据中使用 VGGnet 进行特征提取?
我用SIRI-WHU数据集预训练了VGG19,现在想提取特征,不知道怎么做。有人能帮助我吗?谢谢
python-3.x - 如何获得给定输入图像的 VGG 模型预测?
这里图像必须根据 VGG16 模型的输入类型进行转换。我为此使用了以下代码,我使用库中的 VGG16 模型并将预训练的值设置为 true
它给了我以下错误:
我想在应用转换并将其馈送到 VGG16 模型后预测给定输入图像的输出
deep-learning - 大小不匹配,m1:[1 x 512],m2:[25088 x 4096] 在 /pytorch/aten/src/TH/generic/THTensorMath.cpp:2070
目标:使用 pretained VGG16 对 CIFAR-10 图像进行分类。
请参阅此链接以进行概述: https ://colab.research.google.com/drive/10Wo95j3h7h7QMd8Xpueb50ieawxw5b4M
python - VGG16 Keras 获得非常低的准确率(~2%),而简单的 LeNet 达到 98%
我一直在尝试用大约 2000 张图像的数据集在 keras 中训练一个 VGG16 网络。当我在每个 epoch 之后始终达到 2% 左右的非常低的准确度时,就会出现问题,并且它会一直围绕这个数字波动。但是当我用一个简单的 leNet 训练它时,它达到了 99% 左右的高精度。我不知道问题是什么。我的代码中是否存在固有缺陷?更多的深度有时会对您的准确性产生负面影响吗?这两段代码都附在下面。抱歉,我没有训练过程的屏幕截图。
VGG16 代码:
乐网代码:
另外,需要明确的是,我使用的是手语词典中的数据集。我将视频分成图像。目标是能够通过图像分类识别美国手语单词。
python - 无法将 VGG16 层转换为顺序层
我正在尝试使用 VGG16 预训练模型进行图像分类。同样,我做了以下事情:
模型类型如下:
结果是:
然后,我将 Sequential 模型定义为:
然后,我尝试通过以下方式将其转换vgg16_model
为顺序:
它向我显示如下错误:
如果有人可以帮助我解决这个问题,那就太好了。
python - 相关网络的前向传递输出在没有反向传播的情况下发生变化
我正在使用 Chainer 的相关模型 vgg(这里命名为 net)。每次运行以下代码时,都会得到不同的结果:
我检查了 vgg.prepare() 几次但它的输出是一样的,这里没有随机初始化(net 是一个预训练的 vgg 网络)。那么为什么会这样呢?
tensorflow - 合并一个 LSTM 模型输出和 VGG 模型输出时出错
我得到的错误是fc_model
使用以下方法转换为张量:
在早期版本的 Keras
正在工作,但Merge
已从新版本的 Keras 中删除。我想将输出 LSTM 模型和 VGG 模型相乘fc_model
。谁能建议我什么?
tensorflow - 为什么我下面修改的 vgg-16 Keras 模型需要 1 小时才能运行一个 epoch
我的模型是
每张图像为 128*128*3。我的笔记本电脑上有 8 个 CPU,CPU 使用率约为 700%。为什么运行一个 epoch 大约需要 1 小时?如何提高性能?谢谢
更新
以下是我的模型的详细信息:
python - Keras 预训练 VGG19 模型的层输出为相同的输入产生不同的输出
我正在从给定图像的预训练 VGG19 ConvNet 中提取中间层输出。我希望如果我两次给出相同的图像,我应该得到相同的输出。但是,我没有得到相同的输出。为什么会发生这种情况以及如何解决这个问题?
附加细节: 我正在关注这篇论文。他们使用 VGG19 ConvNet 并从一些中间层(VGG22 表示第 2 层卷积之前的第 2 层)提取超分辨率图像和地面实况图像的特征。然后他们计算这两个特征集之间的均方误差并将其用作损失参数。现在,我的期望是,如果我只给出两次 Ground Truth Image,均方误差应该为零。但它没有发生吗?我在不同的迭代中得到不同的特征值,但图像相同。我还注意到,当我再次运行程序时,我得到了相同的值集。以下代码供参考:
在这里,我的期望是 features1 = features2,这不是
结果:
特点1:
特点2:
图片取自这里。小路:v1.3/Code/Ours/Images_GroundTruth/BSD200/335094.png
编辑 1:添加了额外的代码和结果