我很抱歉我的英语不太好。
嗯..我正在尝试将包含 4,000 张图像的我自己的数据提供给给定的占位符。
例如,
from PIL import Image
class dataset():
def __init__(self):
self.data = []
for file in myfolder:
image = np.asarray(Image.open(file))
self.data.append(image)
...
...
X = tf.placeholder(tf.float32, shape = [None, 32, 32, 1])
trainer = ...minimize(loss)
...
X_data = dataset.next_batch(10)
sess.run(trainer, feed_dict={X: X_data})
这工作得很好,但有一个简单的问题是我无法增加批量大小,因为 GPU 内存不足。
我猜......上面的代码将整个数据加载到一个数组中。所以我尝试在每次迭代时读取图像数据,但这需要很长时间:(
我该如何解决这个问题?或者将我自己的数据分成K-arrays并在GPU上加载一个数组?