问题标签 [batchsize]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
33 浏览

pytorch - 更大的批量可以大大提高训练

我正在编写一个分类器,它采用姓氏并预测它所属的语言。我发现小批量(256 及以下)与大批量(2048 及以上)相比表现不佳。有人能给我一些关于为什么会发生这种情况以及如何解决它的见解吗?谢谢你。

培训代码:

模型:

不同批次大小的损失:

不同批次大小的损失

0 投票
2 回答
51 浏览

javascript - 有没有办法修复最终模型层的输出和输入之间的批量大小不匹配?

我做了什么:我有一个包含 898 个标签的完整数据集,总共有大约 55,000 张图像。出于速度的目的,我使用了其中的 10 个标签和大约 600 张图像来测试下面的代码。我试过改变batchSize,修改数据函数,但无济于事。

问题Error: Batch size mismatch: output dense_Dense1 has 10; expected 500 based on input conv2d_Conv2D1_input.

目标:要么将dense_Dense1的最终输出更改为500,要么将conv2d_Conv2D1_input的预期输入更改为仅10。

完整代码:

0 投票
0 回答
9 浏览

python - influxDBClient 的 fastes batch_size 是多少

我想将 1,000,000 个数据点的列表写入我的 influxDB。我使用这个命令:

这将返回实体错误: InfluxDBClientError: 413: {"error":"Request Entity Too Large"}

或者:

这工作得很好。

如何找到fastes batch_size?

0 投票
0 回答
29 浏览

tensorflow - 将输入与矩阵相乘后,批量大小已更改

我正在 TensorFlow 中编写一个自定义层来计算 PCA。当我将形状(None, 150, 300)的输入提供给该层时,我会收到形状为(150, 150, 100)且n_components = 100的输出。

我怎样才能保持批量大小=无?我想要的输出是:(无,150,100)。

0 投票
0 回答
31 浏览

deep-learning - 如何使用超频带调整 LSTM 的批量大小?

我正在尝试使用以下代码使用超带优化来调整 LSTM 的批量大小,但它不起作用,因为训练项目的数量在不同的批量大小条件下没有变化。你知道如何改进代码吗?先感谢您。

这是输出:

搜索:运行试验#2

超参数 |值 |迄今为止的最佳值 learning_rate |0.0001 |0.01
单位 |192 |224 单位
1 |192 |64 批次大小
|4 |2
调谐器/时期 |2 |2
调谐器/initial_e...|0 |0
调谐器/支架 |1 |1 个
调谐器/轮 |0 |0

纪元 1/2 54/54 [===============================] - 7s 37ms/step - loss: 4.4262 - mse : 4.4262 - val_loss: 3.4221 - val_mse: 3.4221 Epoch 2/2 54/54 [=============================] - 1s 12ms/step - loss: 3.1213 - mse: 3.1213 - val_loss: 3.4463 - val_mse: 3.4463 Trial 2 Complete [00h 00m 08s] val_loss: 3.42207670211792

迄今为止的最佳 val_loss:3.1889588832855225 总经过时间:00h 00m 18s

搜索:运行试验#3

超参数 |值 |迄今为止的最佳值 learning_rate |0.01 |0.01
单位 |192 |224 单位
1 |96 |64 批次大小 |
2 |2
调谐器/时期 |2 |2
调谐器/初始_e...|0 |0
调谐器/支架 |1 |1 个
调谐器/轮 |0 |0

纪元 1/2 54/54 [===============================] - 7s 34ms/step - loss: 3.6241 - mse : 3.6241 - val_loss: 3.1699 - val_mse: 3.1699 Epoch 2/2 54/54 [=============================] - 1s 12ms/step - loss: 3.1807 - mse: 3.1807 - val_loss: 3.2480 - val_mse: 3.2480 Trial 3 Complete [00h 00m 08s] val_loss: 3.1699421405792236

迄今为止的最佳 val_loss:3.1699421405792236 总经过时间:00h 00m 26s

0 投票
0 回答
14 浏览

yolov5 - yolor - 批量与批量大小

我开始在 collab 中使用 yolor 并注意到批量大小是在配置文件中定义的,与 subdivisions 参数一起定义,而且在调用训练脚本时也有一个批量大小。

所以我试图在脚本调用中省略那个,但它返回了这个参数是强制性的错误消息。

问题是:这是同一个参数吗?如果是这样,我在配置文件中写的内容有什么不同吗?在脚本调用中更改一个会影响正在使用的 GPU 内存量。配置文件中的那个似乎没有任何区别。所以我的假设是它是同一个变量,但无论如何都会被覆盖,并且只使用 subdivisions 参数。

在此处输入图像描述

在此处输入图像描述