问题标签 [vgg-net]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
keras - 保存在 keras 中训练的 VGG-16 模型的权重
训练后如何保存 VGG-16 模型的权重?如何将保存的权重加载到模型中?
我试过这个:
我收到以下错误:
NameError Traceback (last last call last) in () ----> 1 custom_vgg_model.load_weights(weights-Test-CNN.hdf5, by_name=False)
NameError:名称“权重”未定义
neural-network - VGG迁移学习错误
我正在使用迁移学习方法训练 VGG 网络。(微调)但是在训练数据集时,我发现了以下错误,它停止了训练过程。
有人可以帮我在这里找出问题。
python - 在keras中对VGG应用ZCA美白
我在这里使用 VGG来训练我的数据:
如果只是单独VGG,效果很好,但是我想对它应用zca美白。Keras 允许只用一行代码 ( zca_whitening=True
) 添加 ZCA,但问题是我们必须fit()
稍后调用该函数。
的参数ImageDataGenerator#fit()
是x,即训练数据集。但是在这个程序中,训练数据集将在之后定义。那么在这种情况下如何使用 zca 美白呢?
更新 我已经按照下面的评论进行了更新,但它引发了一个错误:
需要的工作数组太大 - 无法使用标准 32 位 LAPACK 执行计算
为了减少内存,我尝试只将 6 张图像放入训练数据集中,但没有任何改变。那么这个错误实际上是什么意思呢?
tensorflow - 使用 tf.slim 从 vgg 部分恢复图层
我有一个关于从 tensorflow.contrib.slim.nets 的 vgg 中排除前两层的问题。
如您所知 tensorflow.contrib.slim.nets.vgg,
我想要的是net = slim.fully_connected(net, 4096, scope='fc7')的输出,而不是net = slim.fully_connected(net, 1000, activation_fn=None, scope='fc8')
那么无论如何要从中删除 dropout7 和 fc8 吗?
这是一个使用 tf.slim 的 vgg 的简单代码;请让我知道如何在此示例中删除这些内容。
python - 在 Keras 的 GPU 上微调 VGG-16:内存消耗
我正在为我的任务微调 VGG-16。这个想法是我加载预训练的权重,删除最后一层(这是具有 1000 个输出的 softmax)并用具有几个输出的 softmax 替换它。然后我冻结除最后一层以外的所有层并训练模型。
这是构建原始模型并加载权重的代码。
在我的案例中,Keras 使用 Tensorflow 作为后端。Tensorflow 是为使用 GPU(使用 CUDA)而构建的。我目前有一张相当旧的卡:具有 2Gb 内存的 GTX 760。
在我的卡上,由于内存不足错误,我什至无法加载整个模型(上面的代码)。
在这里,作者说 4Gb 也是不够的。
在这里,GTX 1070 甚至能够训练 VGG-16(不仅仅是将其加载到内存中),但只能使用一些批量大小和不同的框架(不在 Keras 中)。GTX 1070 似乎总是有 8Gb 的内存。
所以看起来 4Gb 显然不足以微调 VGG-16,8Gb可能就足够了。
问题是:多少内存足以用 Keras+TF 微调 VGG-16?6Gb 就足够了,或者 8Gb 是最低限度并且可以,还是需要更大的?
python - Tensorflow 对象检测 API:自定义 VGG 16 模型
我正在创建自定义 VGG 模型作为 Tensorflow 对象检测 API 中 Faster RCNN 模型的特征提取器。如文档https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/defining_your_own_model.md中所述,特征提取器代码由extract_proposal_features
和 组成extract_classifier_features
。我正在使用创建卷积层的 TF slim 代码(因为 Tensorflow 团队使用它)。作为参考,请找到TF slim使用的VGG 16的模型结构
我的问题是,哪个卷积层需要包含并返回到extract_proposal_features
方法中,哪些卷积层需要包含并返回到extract_classifier_features
. 请告诉我。
neural-network - 神经网络中cnn和vgg模型的区别
什么是神经网络中的 VGG 模型?
我认为 VGG 模型有特定的规格:-卷积层(仅使用 3*3 大小)-最大池化层(仅使用 2*2 大小)-末端完全连接的层-总共 16 层
神经网络中的CNN和VGG模型有什么区别?
python - 将 Keras 模型集成到 TensorFlow 中
我正在尝试在 TensorFlow 代码中使用预训练的 Keras 模型,如本 Keras 博客文章第 II 节下所述:将 Keras 模型与 TensorFlow 结合使用。
我想使用 Keras 中可用的预训练 VGG16 网络从图像中提取卷积特征图,并在其上添加我自己的 TensorFlow 代码。所以我这样做了:
但是,这给了我一个错误:
相反,如果我在运行网络之前运行初始化操作:
然后我得到预期的输出:
我的问题是,在运行时tf.global_variables_initializer()
,变量是随机初始化的还是使用 ImageNet 权重初始化的?我问这个是因为上面引用的博文没有提到在使用预训练的 Keras 模型时需要运行初始化程序,这确实让我感到有些不安。
我怀疑它确实使用了 ImageNet 权重,并且只需要运行初始化程序,因为 TensorFlow 需要显式初始化所有变量。但这只是一个猜测。
python - 连续预测时仅在 Keras 中实例化 VGG 模型一次?
有很多在线教程可以指导如何使用预训练模型在 Keras 中对一张图像进行一次预测。对于我的情况,我在 Keras 中使用 VGG16 模型,我需要连续预测图像,所以我使用 for 循环加载图像,然后将其传递给预测函数,它运行良好,但是一个预测时间太长(我的 ~800ms机器,仅限 CPU),这里是代码:
上面的代码可以运行良好,但是每次预测花费的时间太长,整个函数需要800ms,构建VGG网络需要500ms,成本太高。我想为连续预测模式的每个预测删除这 500 毫秒。
我尝试将“model = keras.applications.VGG16(include_top=True, weights='imagenet')”这一行代码放在预测函数的外部,全局定义它或将“model”作为参数传递给函数,但程序会返回错误并在第一次成功预测后结束。
似乎我需要为每个预测实例化一个 VGG 模型,如何更改代码以节省模型构建时间?谢谢。
python - 预训练模型的层输出意外地产生不同的输出
我有一个(1, 224, 224, 3)
名为content_image
. 那就是 VGG 网络输入的大小。
当我转移content_image
到 VGG 网络的输入时,如下图所示:
这似乎产生了以下规模的输出[0, 1]
:
另一方面,当我根据keras 文档应用以下方法时(使用 VGG19 从任意中间层提取特征):
这种方法似乎产生不同的输出。
这两种方法都使用具有相同权重的相同网络,并传输相同的 numpy 数组 ( content_image
) 作为输入,但它们产生不同的输出。我希望他们应该产生相同的结果。