问题标签 [batchsize]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - 处理自定义数据增强层中的批量大小 - tensorflow
我已经实现了这个简单的数据增强层,基本上它将图像旋转一个特定的角度(我知道它可以通过 ImageDataGenerator 来完成,但这只是为了解释问题)。
然后,我的模型(包括该层)通过使用 ImageDataGenerator 的 fit 方法进行训练,以自动获取生成器。我收到此错误是因为批量大小的值为无。
TypeError:len >= 0 或单个整数的预期序列对象
python - 如何在 Tensorflow 中使用 train_date.take(1)
我正在使用 tensorflow 进行测试。我将数据集放入两个文件夹中。我配置了batch_size
,height
和width
,train_data
但是我看不到它们matplotlib
或在模型中使用它。
错误是:
我认为这train_date.take(1)
不会占用文件,但我不明白为什么以及如何修复它,知道吗?
python - 使用 keras(生成器函数)了解时间序列预测中的 batch_size
我是 TensorFlow 和 keras 的新手。我正在学习使用 python (Chollet) 进行深度学习一书中的教程。也可以在这里找到:https ://www.kaggle.com/pankrzysiu/6-3-1-a-temperature-forecasting-problem
在问题陈述中,我们要预测未来 24 小时的温度。对于数据设置,他定义了以下生成器:
并创建三个对象:
根据我对这段代码的理解,变量“rows”的长度等于批量大小。
当生成器创建目标时,它似乎为每个批号创建一个目标。我不明白这段代码如何返回 24 小时的目标值,以及为什么 test_gen 也用 batch_size=batch_size 调用。
如果问题不清楚,请指出。
python - 训练后修复 Tensorflow 模型的 Batchsize
我正在 Tensorflow 中训练一个具有可变批量大小的模型(输入:[None, 320, 240, 3])。问题是在训练后量化期间我不能有任何动态输入,因此没有“无”,并且使用 edgetpu 编译器我不能有大于 1 的批量。
我目前的方法是再训练一个固定批次大小为 1 的 epoch。但这有点乏味。
是否可以将输入从 [None, 320, 240, 3] 更改为 [1, 320, 240, 3] 或 [320, 240, 3] 而无需再次训练?
random-forest - Weka 随机森林属性定义
我正在使用 Weka 对二进制数据集进行分类。我想RandomForest
用作分类器。我发现RandomForest
有许多属性。我想知道这些属性的含义以及它们在分类时是如何工作的。Weka 分享了一些详细信息,可以从 的属性窗口的更多选项卡中找到RandomForest
。
我附上截图
这些属性有一些定义:
bagSizePercent -- 每个包的大小,作为训练集大小的百分比。
numIterations -- 随机森林中的树数。
outputOutOfBagComplexityStatistics -- 执行袋外评估时是否输出基于复杂性的统计信息
numFeatures -- 设置随机选择的属性的数量。如果为 0,则使用 int(log_2(#predictors) + 1)。
等等。
所以那些 1 行无法清除我的疑问。如果有人通过分享属性的深入视图来帮助我,那将非常有帮助。
parameters - 批量大小(max_source_length 和 max_target_length)
在一些论文中,作者在训练设置或实验设置下提到了具有特定数字的批量大小。而在相应的代码中,有 max_source_length 和 max_target_length 值,论文中提到了这一个。
拜托,我想明白这一点。
conv-neural-network - 每个时期的批量大小和步数
我的数据大小是 6011 ,它是一个素数,因此,唯一将此数据平均划分的批量大小数字是 1 或 6011。但是,我需要批量大小为 32 ,这意味着 steps_per_epoch 等于到 6011/32 =187.84。我的问题是,如果我将 steps_per_epoch 设置为 188,训练的最后一步(步骤编号 188)会发生什么?它会包含剩余的 6011-(187*32)= 27 个样本吗?
tensorflow - 为什么使用相同代码时我的 PC 与 Kaggle 的准确性不同
我正在编写一个水印检测算法,并且我尝试了来自 Kaggle 的代码来微调 ResNet,但是当我在 Jupyter 笔记本中运行相同的代码时,当 Kaggle 中的示例代码有大约 97% 时,我得到 50% 的准确率准确性。我的 PC 上没有安装 GPU,我将批量大小更改为 32。你知道为什么我的准确率会降低 40% 吗?
我的代码:
deep-learning - 没有批量标准化的批量大小
我正在以 EDSR 作为基准模型来处理图像超分辨率任务。在 EDSR 之后,我没有在我的模型中使用任何批处理规范层。我突然想出了一个关于批量大小的愚蠢问题。
目前,我正在使用 batch-size=32 训练我的模型(如在 EDSR 中)。但由于我没有使用任何批量标准化技术,我看不出有任何理由使用大于 1 的批量大小。但我对自己的想法没有信心,因为作者的实现使用大于 1 的批量大小。
有人可以帮我解决这个问题吗?我错过了什么?
python - 谁能帮助我使用pytorch进行MLP?
我正在尝试将 MLP 与 2 个类一起使用。
X_train 是一个 numpy 数据数组 (217,36 (36inputs)) X_test 是一个 numpy 数据数组 (100,36) y_train 是一个 [1,0] 或 [0,1] 的 numpy 数组(指定每个类别的类别sample) 大小为 (217,2) 和 y_test 与大小 (100,2) 相同
以下是我使用 Pytorch 的代码:
但是有一个错误:
回溯(最近一次通话最后):
文件“C:\users\Harry.spyder-py3\done.py”,第 218 行,在 test()
文件“C:\users\Harry.spyder-py3\done.py”,第 212 行,测试正确 += predicted.eq(targets.data.view_as(predicted)).sum()
RuntimeError:形状“[4]”对于大小为 8 的输入无效
任何人都可以帮助我吗?我认为这是批量大小的问题,所以我尝试使用不同的批量大小但不起作用:(