问题标签 [batchsize]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow - “tf.keras.preprocessing.timeseries_dataset_from_array 中的批量大小”和“model.fit 中的批量大小”有什么区别?
正如您从本教程 ( https://www.tensorflow.org/tutorials/structured_data/time_series ) 中看到的那样,我正在研究时间序列的预测。
我想问一下教程第 4 节中 tf.keras.preprocessing.timeseries_dataset_from_array 中的批量大小与 model.fit 中的批量大小之间的区别。如果这两个参数相同,那么如果我也在 model.fit 中写入批量大小会发生什么?
谢谢你。
python - 如何在 Pytorch 中为 Seq2seq 模型实现小批量下降
我是初学者并使用链接https://pytorch.org/tutorials/intermediate/seq2seq_translation_tutorial.html来实现序列到序列模型以进行音译。可以看到train()的函数定义中的代码是这样的:
可以看出,此功能的方式是逐个字符地迭代一个文本。所以batch size是1。所以embedding layer之后的输出是[1,1,embedding_layer_size]。
我想实现这样的事情:
这样我就得到了[batch_size,seq_length,embedding_layer_size]。并且也以同样的方式解码。请注意,批次中的每个序列的 seq_length 都不同
请帮帮我,指向资源的指针也足够了
mongodb - 有没有办法永久更改 MongoDB 的 Batchsize?
我想对我在 MongoDB 和 SWI-PROLOG 之间编写的 API 进行一些测试。所以我面临的问题是 MongoDB 的批量大小。我可以将其永久设置为 1.000.000 吗?
我在 MongoDB 的文档中没有找到任何东西。
我知道我可以通过以下方式更改它:
但不是永久的。
arrays - 确保所有数组包含相同数量的样本
代码:
错误:
我尝试了之前谈到的解决方案。(比如,np.array(train_X)。但我还是无法修复它。一直以来,我也无法配置批量大小。你能帮帮我吗?
python - 如何在 keras 中使用批量大小?
早上好!
我只是想澄清一下 - model.fit 中的 batch_size 参数是声明有多少样本进入,还是一次进入的样本数量 x/batch_size,总共有 x 个样本?
也就是说,假设我们有 20,000 个样本,并且批量大小为 100。这是否意味着一次传入 200 个样本(意味着 100 个批次),还是 100 个样本?
我问是因为https://deeplizard.com/learn/video/Skc8nqJirJg说“如果我们一次将整个训练集传递给模型(batch_size=1),那么我们刚刚计算损失的过程将发生在训练期间每个 epoch 的结束”,暗示它是一批。但是,batch_size 似乎意味着基于其名称的不同,所以我想澄清一下。
谢谢!
注意:还有另一个类似的问题,但没有得到回答 - Keras 中的 BatchSize 是如何工作的?LSTM-WithState-时间序列
这增加了:这些样本是如何选择的?
python - 在 tensorflow 计算机视觉建模中在哪里定义批量大小?
我有这些数据,我将其指定batch_size
为 32:
返回:
当我探索它如下:
它返回:
然后我构建并编译模型,并指定bacth_size
如下:None
InputLayer
然后拟合模型,我将 batch_size 指定为 None
该模型运行良好,仅在 5 个 epoch 上训练时,aval_binary_accuracy
为 81%。
在什么情况下应该使用其他两个中的批量大小,并且可以batch_size
在所有这些中定义批量大小,否则可能会导致问题?
pytorch - GroupNorm 中的 num_groups 是什么以及如何选择它
我发现 batch_norm 可能会导致小批量的问题,而 GroupNorm 是一个不错的选择。现在,GroupNorm 需要两个参数,num_group 和 num_channels。如何为 num_group 选择一个好的值?这取决于什么?使用 groupnorm,大 batch_size 好还是小 batch_size 好?
tensorflow - 如何在 TF2 的 call() 函数中获取 batch_size?
我正在尝试在 TF2 模型中发挥作用batch_size
。call()
但是,我无法得到它,因为我知道的所有方法都返回None
或 Tensor 而不是维度元组。
这是一个简短的例子
输出是:
在此示例中,我将(2,4)
numpy 数组作为输入和(2, )
目标提供给模型。但正如你所见,我无法batch_size
发挥call()
作用。
我需要它的原因是因为我必须迭代batch_size
在我的真实模型中是动态的张量。
例如,如果数据集大小为 10,批量大小为 3,那么最后一批中的最后一个批量大小将为 1。所以,我必须动态知道批量大小。
谁能帮我?
- 张量流 2.3.3
- CUDA 10.2
- 蟒蛇 3.6.9
tensorflow - memmap 数组到 pytorch 和梯度累积
处理后我有一个大型数据集(> 62 GiB),保存为两个 NumPy.memmap 数组,其中一个数据和另一个用于标签,数据集具有这些形状 (7390,60,224,224,3) 和 (7390) 并且没有洗牌所以我需要先洗牌。
现在我使用 tensorflow2 并将这段代码与我的生成器一起使用来管理 memmap 数组
这样我就可以在不通过洗牌和批处理将整个数据集加载到内存的情况下进行训练。
现在使用这个当前的模型和数据集,vram 不足以加载超过 2 个批次作为张量。而且我无法使用 2 的批量进行训练。
我想到了梯度累积,但我不能用 TF2 来做,我发现用 pytorch 很容易,但我找不到如何处理 memmap 数组,就像在 tensorflow 中使用生成器一样。
所以我需要知道如何从 pytorch 加载数据集,并在 pytorch 中进行相同的改组和批处理。
或者如果有人在 TF2 上有一个现成的GA代码
tensorflow - CNN模型批量大小和数据,预测相关问题
在这里你可以看到总的训练图像和测试图像的形状:
- 训练图像 = 95
- 测试图像 = 5
当我使用批量大小5
时,它19/19
与预测一起显示为 1/1。但我有95
训练图像和5
测试图像。
它是在训练我的整个95
形象吗?如果是,那么为什么它没有显示 95/95?
如果它只训练19
显示的图像,19/19
那么我该如何训练我的整个95
图像?预测同样的问题!它是预测5
图像还是1
图像?
在这里,当我使用它显示的批量大小和2
它显示48/48
的预测时1/1
,我想知道它是训练48
图像还是95
图像,而预测是预测1
图像还是5
图像?
当我使用批量大小1
时,它显示95/95
. 这里也有同样的问题!