问题标签 [batchsize]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
deep-learning - 批次数和历元
我一直在努力理解时代和批量大小的概念。你可以在下面看到我的 CNN 的训练结果:
所以有 163 个 epoch,32 个批大小。由于批量大小是每个时期的样本数,因此有 163*32 = 5216 个样本,但数据集中只有 3459 个样本。那么当它们不足够时,它是否开始从数据集的开头拍摄图像?
python - 类型错误:模型()得到了一个意外的关键字参数“batch_size”
我为 CNN 进行了输入,但是出现错误TypeError: model() got an unexpected keyword argument 'batch_size'
让我将所有函数粘贴到此处:
我已将评论放在“出现错误”的行上。这是回溯: Traceback(最近一次通话最后一次):
python - pytorch中关于batch_size的问题
我试用了 PyTorch,想为 PHM 2010 编写一个程序。但是,程序的结果并不好。有一个问题是随着batch_size的增加预测变得更糟。数据集为PHM2010。共有315组样本,每组样本的输入有7个信号,输出为磨损值。数据集中有6个刀具磨损值,分别是C1、C2、C3、 C4,C5 和 C6。其中,1,4 和 6 作为监督学习具有真实磨损值。此代码采用 C1 数据集。神经网络使用卷积神经网络。当 batch_size 为 1 时,预测值接近 Keras 框架中的预测值。但是,随着 batch_size 的增加,预测值会偏离真实值。
github中的代码:https ://github.com/charmerphil/CNN-keras-and-pytorch.git 如下图所示。
pytorch - 如何使用 MNIST 数据集在 pytorch 中进行手动批处理
我是pytorch的新手。
在 pytorch 中训练 MNIST 数据集时,我尝试使用不同的方法。
通常,我们为每批输入所有打乱的数字。
我想要做的是(假设批量大小为 20 并且有 1000 个训练示例)。让一批看起来像这样(为简单起见,我只写了标签)
batch_1 = [0, 0, 1, 0, ... ] 此批次只有 0 和 1
batch_2 = [6, 6, 7, 7, ... ] 此批次只有 6 和 7
batch_3 = [2, 3, 2, 2, ... ] 此批次只有 2 和 3
batch_4 = [4, 5, 5, 4, ... ] 此批次只有 4 和 5
batch_5 = [6, 6, 7, 7, ... ] 此批次只有 6 和 7
batch_6 = [8, 9, 9, 9, ... ] 此批次只有 8 和 9
batch_7 = [2, 3, 2, 2, ... ] 此批次只有 2 和 3
batch_8 = [4, 5, 5, 4, ... ] 此批次只有 4 和 5
...
batch_50 = [4, 5, 5, 4, ... ] 此批次只有 4 和 5
我怎么能在pytorch中做到这一点?
谢谢
到目前为止,这是我的训练/测试实现。我将在下面扩展/操作此代码以开发上述代码。
pytorch - 在 PyTorch 中定义批量大小 = 1 的手动排序的 MNIST 数据集
[] :这表示一个批次。例如,如果批次大小为 5,那么批次将类似于 [1,4,7,4,2]。[] 的长度表示批量大小。
我想要制作的训练集如下所示:
[1] -> [1] -> [1] -> [1] -> [1] -> [7] -> [7] -> [7] -> [7] -> [7] -> [3] -> [3] -> [3] -> [3] -> [3] -> ... 以此类推
这意味着首先是五个 1(batch size = 1),其次是五个 7s(batch size = 1),第三个是五个 3s(batch size = 1)等等......
有人可以给我一个想法吗?
如果有人可以解释如何用代码实现这一点,那将非常有帮助。
谢谢!:)
python - 批量大小和训练时间
感谢@Prune 对我的问题的批评意见。
我试图通过使用 MNIST 数据集来找到批量大小和训练时间之间的关系。
通过阅读 stackoverflow 中的许多问题,例如: 批量大小如何影响神经网络中的时间执行? 人们说当我使用小批量时训练时间会减少。
但是,通过尝试这两个,我发现批量大小 == 1 的训练比批量大小 == 60,000 需要更多时间。我将纪元设置为 10。
我将 MMIST 数据集分成 60k 用于训练和 10k 用于测试。
下面是我的代码和结果。
我计算了每个 epoch 花费了多少时间。
这就是结果。
在此之后,我将批处理大小更改为 60000 并再次运行相同的程序。
我得到这个批量大小的结果 == 60000
正如您所看到的,很明显,当 batch_size == 1 时,每个 epoch 都需要更多时间,这与我所看到的不同。
也许我对每个时期的训练时间与收敛前的训练时间感到困惑?通过查看此网页,我的直觉似乎是正确的:https ://medium.com/deep-learning-experiments/effect-of-batch-size-on-neural-net-training-c5ae8516e57
有人可以解释发生了什么吗?
tensorflow - 减少输入神经网络的数据大小?
我正在尝试来自互联网的 tensorflow 代码,
它是关于 GAN 算法的,但我遇到了一个与我机器上的 GPU 内存相关的错误,
这是我正在使用的配置
我应该在哪里编辑以减少数据大小..告知更多细节......提前谢谢
tensorflow - Keras 输出的批量大小与我的训练集不同
我对 keras 输出中显示的批量大小有疑问。我已经阅读了有关如何解释 keras 输出的类似帖子,并发现219
图中显示result
的数字是 batch_size 的数量。但是可以看到我的X_train batch_size是7000,不是219,这个219是哪里来的?
部分结果:
salesforce - DBAmp SF_TableLoader BatchSize Salesforce
我开始使用 DBAmp 来更新 Salesforce 云。我了解使用 SF_Bulk 根据所使用的 API 限制为 200 的批量大小。我认为使用 SF_TableLoader 可以让我将浴缸大小增加到大约 10000,并且该过程将允许将更多的记录更新到云中,并决定即时使用的最佳 API。但是,当我使用 SF_TableLoader 运行超过 200 条记录时,我收到与批量大小相关的错误。即使我运行 170 条记录,我也会收到错误消息。我错过了什么?请告知如何一次更新数千条记录。
声明@SalesforceServerName NVARCHAR(20)、@SalesforceOrgID VARCHAR(18)、@SQLString NVARCHAR(200)、@Result VARCHAR(18)、@ErrorMessage VARCHAR(MAX);
SET @SalesforceOrgID = '00Di0000000H1FtEAK'
SET @SalesforceServerName = N'SALESFORCE' SET @SQLString = N'SELECT @Result=OrganizationId FROM ' + @SalesforceServerName + '...sys_sfsession'
--将批量大小增加到 10000 EXECUTE SF_TableLoader 'Update:batchsize(200)', @SalesforceServerName, 'NICX__Rfp__c_UPDATE'
错误:--- 结束 SF_TableLoader。手术失败。消息 50000,级别 16,状态 1,过程 SF_TableLoader,第 362 行 SF_TableLoader 错误:09:11:09:DBAmpNet2 3.9.2.0 (c) 版权所有 2015-2017 forceAmp.com LLC09:11:09:批量大小重置为每行 1000 行batch.09:11:09:参数:更新 NICX__Rfp__c_UPDATE DALDCEEDWPROD Salesforce SALESFORCE 09:11:09:使用 Salesforce SOAP API.09:11:10:删除 NICX__Rfp__c_UPDATE_Result(如果存在)。09:11:10:使用新结构创建 NICX__Rfp__c_UPDATE_Result .09:11:10:1000 的批量太大。重置为每批 200 行。09:11:53:从 SQL 表读取 221 行。09:11:53:200 行失败。有关详细信息,请参阅行的错误列。09:11:53:成功处理了 21 行。09:11:53:发生错误。有关详细信息,请参阅行的错误列。09:11:53:DBAmpNet2 操作失败。