0

我设法在我的服务器上安装了#DeepDream。

我有双核和 2gb 内存。但处理大小为 100kbp 的图像需要 1 分钟。

有什么建议吗?

4

4 回答 4

1

您是在 Windows 或 OS X 上的虚拟机中运行它吗?如果是这样,那么它可能不会更快地工作。在虚拟机(我正在使用 Docker)中,您大多数时候无法使用 CUDA 来渲染图像。我有同样的问题,我将通过安装 Ubuntu 来尝试,然后为 CUDA 安装 NVidia 驱动程序。目前我正在渲染大约 300kb 的 1080p 图像,在具有 8gb 内存的英特尔酷睿 i7 上制作一张图像需要 15 分钟。

于 2015-07-15T12:31:56.650 回答
0

除非您可以移动到更好的工作站/获得 GPU,否则您将不得不调整图像大小。

img = PIL.Image.open('sky1024px.jpg')
img = np.float32(img.resize( [int(0.5 * s) for s in img.size] ))
于 2015-07-24T21:46:55.907 回答
0

根据经验,深度学习在计算和内存资源上都很困难。2gb RAM Core Duo 机器并不是深度学习的好选择。请记住,许多开创这一领域的人使用 GTX Titan 卡进行了大量研究,因为在训练深度学习网络时,即使在至强服务器上的 CPU 计算速度也非常慢。

于 2016-09-28T21:00:31.093 回答
0

花 1 分钟处理 100kb 的图像对于#deepdream 来说是一个合理的周转时间,我们承认这些渲染的烘焙时间非常长。通常,实验研究软件会运行得太慢,渴望未来更快的计算机。也就是说,有几种方法可以让您的设置执行得更快。

于 2016-04-21T22:07:09.870 回答