3

我正在尝试从 OpenNMT 运行基于 Lua 的程序。我已经按照这里的程序:http: //forum.opennmt.net/t/text-summarization-on-gigaword-and-rouge-scoring/85

我使用了以下命令:

 th train.lua -data textsum-train.t7 -save_model textsum1 -gpuid 0 1 2 3 4 5 6 7

我正在使用 8 个 GPU,但该过程仍然非常慢,就好像该过程正在 CPU 上工作一样。请让我知道优化 GPU 使用的解决方案可能是什么。
以下是 GP 使用情况的统计数据:
GPU统计

请让我知道如何使用完整的 GPU 使该过程运行得更快。我可以使用 11GB,但该过程仅消耗 2 GB 或更少。因此,这个过程非常缓慢。

4

1 回答 1

3

根据OpenNMT 文档,您需要0gpuid选项之后立即删除,因为它0代表 CPU,您可以有效地将训练速度降低到 CPU 驱动的速度。

要使用数据并行性,请将 GPU 标识符列表分配给该-gpuid选项。例如:

th train.lua -data data/demo-train.t7 -save_model demo -gpuid 1 2 4

将使用 CUDA API 返回的机器的第一个、第二个和第四个 GPU。

于 2018-07-06T10:43:16.530 回答