问题标签 [batchsize]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
178 浏览

deep-learning - 批次数和历元

我一直在努力理解时代和批量大小的概念。你可以在下面看到我的 CNN 的训练结果:

所以有 163 个 epoch,32 个批大小。由于批量大小是每个时期的样本数,因此有 163*32 = 5216 个样本,但数据集中只有 3459 个样本。那么当它们不足够时,它是否开始从数据集的开头拍摄图像?

0 投票
1 回答
1189 浏览

python - 类型错误:模型()得到了一个意外的关键字参数“batch_size”

我为 CNN 进行了输入,但是出现错误TypeError: model() got an unexpected keyword argument 'batch_size'让我将所有函数粘贴到此处:

我已将评论放在“出现错误”的行上。这是回溯: Traceback(最近一次通话最后一次):

0 投票
0 回答
137 浏览

python - pytorch中关于batch_size的问题

我试用了 PyTorch,想为 PHM 2010 编写一个程序。但是,程序的结果并不好。有一个问题是随着batch_size的增加预测变得更糟。数据集为PHM2010。共有315组样本,每组样本的输入有7个信号,输出为磨损值。数据集中有6个刀具磨损值,分别是C1、C2、C3、 C4,C5 和 C6。其中,1,4 和 6 作为监督学习具有真实磨损值。此代码采用 C1 数据集。神经网络使用卷积神经网络。当 batch_size 为 1 时,预测值接近 Keras 框架中的预测值。但是,随着 batch_size 的增加,预测值会偏离真实值。

github中的代码:https ://github.com/charmerphil/CNN-keras-and-pytorch.git 如下图所示。

在此处输入图像描述

在此处输入图像描述

在此处输入图像描述

在此处输入图像描述

在此处输入图像描述

在此处输入图像描述

0 投票
0 回答
195 浏览

pytorch - 如何使用 MNIST 数据集在 pytorch 中进行手动批处理

我是pytorch的新手。

在 pytorch 中训练 MNIST 数据集时,我尝试使用不同的方法。

通常,我们为每批输入所有打乱的数字。

我想要做的是(假设批量大小为 20 并且有 1000 个训练示例)。让一批看起来像这样(为简单起见,我只写了标签)


batch_1 = [0, 0, 1, 0, ... ] 此批次只有 0 和 1

batch_2 = [6, 6, 7, 7, ... ] 此批次只有 6 和 7

batch_3 = [2, 3, 2, 2, ... ] 此批次只有 2 和 3

batch_4 = [4, 5, 5, 4, ... ] 此批次只有 4 和 5

batch_5 = [6, 6, 7, 7, ... ] 此批次只有 6 和 7

batch_6 = [8, 9, 9, 9, ... ] 此批次只有 8 和 9

batch_7 = [2, 3, 2, 2, ... ] 此批次只有 2 和 3

batch_8 = [4, 5, 5, 4, ... ] 此批次只有 4 和 5

...

batch_50 = [4, 5, 5, 4, ... ] 此批次只有 4 和 5


我怎么能在pytorch中做到这一点?

谢谢


到目前为止,这是我的训练/测试实现。我将在下面扩展/操作此代码以开发上述代码。

0 投票
2 回答
433 浏览

pytorch - 在 PyTorch 中定义批量大小 = 1 的手动排序的 MNIST 数据集

[] :这表示一个批次。例如,如果批次大小为 5,那么批次将类似于 [1,4,7,4,2]。[] 的长度表示批量大小。

我想要制作的训练集如下所示:

[1] -> [1] -> [1] -> [1] -> [1] -> [7] -> [7] -> [7] -> [7] -> [7] -> [3] -> [3] -> [3] -> [3] -> [3] -> ... 以此类推

这意味着首先是五个 1(batch size = 1),其次是五个 7s(batch size = 1),第三个是五个 3s(batch size = 1)等等......

有人可以给我一个想法吗?

如果有人可以解释如何用代码实现这一点,那将非常有帮助。

谢谢!:)

0 投票
1 回答
883 浏览

python - 批量大小和训练时间

感谢@Prune 对我的问题的批评意见。

我试图通过使用 MNIST 数据集来找到批量大小和训练时间之间的关系。

通过阅读 stackoverflow 中的许多问题,例如: 批量大小如何影响神经网络中的时间执行? 人们说当我使用小批量时训练时间会减少。

但是,通过尝试这两个,我发现批量大小 == 1 的训练比批量大小 == 60,000 需要更多时间。我将纪元设置为 10。

我将 MMIST 数据集分成 60k 用于训练和 10k 用于测试。

下面是我的代码和结果。

我计算了每个 epoch 花费了多少时间。

这就是结果。

在此之后,我将批处理大小更改为 60000 并再次运行相同的程序。

我得到这个批量大小的结果 == 60000

正如您所看到的,很明显,当 batch_size == 1 时,每个 epoch 都需要更多时间,这与我所看到的不同。

也许我对每个时期的训练时间与收敛前的训练时间感到困惑?通过查看此网页,我的直觉似乎是正确的:https ://medium.com/deep-learning-experiments/effect-of-batch-size-on-neural-net-training-c5ae8516e57

有人可以解释发生了什么吗?

0 投票
0 回答
17 浏览

tensorflow - 减少输入神经网络的数据大小?

我正在尝试来自互联网的 tensorflow 代码,
它是关于 GAN 算法的,但我遇到了一个与我机器上的 GPU 内存相关的错误,
这是我正在使用的配置

我应该在哪里编辑以减少数据大小..告知更多细节......提前谢谢

0 投票
1 回答
79 浏览

tensorflow - Keras 输出的批量大小与我的训练集不同

我对 keras 输出中显示的批量大小有疑问。我已经阅读了有关如何解释 keras 输出的类似帖子,并发现219图中显示result的数字是 batch_size 的数量。但是可以看到我的X_train batch_size是7000,不是219,这个219是哪里来的?

部分结果:

0 投票
0 回答
215 浏览

salesforce - DBAmp SF_TableLoader BatchSize Salesforce

我开始使用 DBAmp 来更新 Salesforce 云。我了解使用 SF_Bulk 根据所使用的 API 限制为 200 的批量大小。我认为使用 SF_TableLoader 可以让我将浴缸大小增加到大约 10000,并且该过程将允许将更多的记录更新到云中,并决定即时使用的最佳 API。但是,当我使用 SF_TableLoader 运行超过 200 条记录时,我收到与批量大小相关的错误。即使我运行 170 条记录,我也会收到错误消息。我错过了什么?请告知如何一次更新数千条记录。

声明@SalesforceServerName NVARCHAR(20)、@SalesforceOrgID VARCHAR(18)、@SQLString NVARCHAR(200)、@Result VARCHAR(18)、@ErrorMessage VARCHAR(MAX);

SET @SalesforceOrgID = '00Di0000000H1FtEAK'
SET @SalesforceServerName = N'SALESFORCE' SET @SQLString = N'SELECT @Result=OrganizationId FROM ' + @SalesforceServerName + '...sys_sfsession'

--将批量大小增加到 10000 EXECUTE SF_TableLoader 'Update:batchsize(200)', @SalesforceServerName, 'NICX__Rfp__c_UPDATE'

错误:--- 结束 SF_TableLoader。手术失败。消息 50000,级别 16,状态 1,过程 SF_TableLoader,第 362 行 SF_TableLoader 错误:09:11:09:DBAmpNet2 3.9.2.0 (c) 版权所有 2015-2017 forceAmp.com LLC09:11:09:批量大小重置为每行 1000 行batch.09:11:09:参数:更新 NICX__Rfp__c_UPDATE DALDCEEDWPROD Salesforce SALESFORCE 09:11:09:使用 Salesforce SOAP API.09:11:10:删除 NICX__Rfp__c_UPDATE_Result(如果存在)。09:11:10:使用新结构创建 NICX__Rfp__c_UPDATE_Result .09:11:10:1000 的批量太大。重置为每批 200 行。09:11:53:从 SQL 表读取 221 行。09:11:53:200 行失败。有关详细信息,请参阅行的错误列。09:11:53:成功处理了 21 行。09:11:53:发生错误。有关详细信息,请参阅行的错误列。09:11:53:DBAmpNet2 操作失败。

0 投票
1 回答
649 浏览

neural-network - RuntimeError: 给定组=1,大小为 [64, 3, 3, 3] 的权重,预期输入 [64, 1, 32, 32] 有 3 个通道,但有 1 个通道

我正在研究 SVHN 数据集,但仅在训练阶段出现此错误。在模型的实例化期间,它可以工作。

为了确保有 3 个通道,我编写了 Grayscale(3) 转换。

我不知道那个 1 来自哪里

此外,这是没有分类器(全连接层)的模型输出的形状:

事实上,我会将 256x4x4 作为输入传递给第一个 FC。

编辑: 在此处输入图像描述