10

在 GPU 上训练 PyTorch 模型几个小时后,程序失败并出现错误

RuntimeError:cuDNN 错误:CUDNN_STATUS_INTERNAL_ERROR

培训条件

  • nn.LSTM神经网络: PyTorch 4 层nn.Linear输出
  • Deep Q 网络代理(带有重放内存的 Vanilla DQN)
  • state传入forward()具有形状(32, 20, 15)32批量大小在哪里
  • 每集 50 秒
  • 错误发生在大约 583 集(8 小时)或 1,150,000 步之后,其中每一步都涉及通过 LSTM 模型的前向传递。

我的代码在训练开始之前还设置了以下值

torch.manual_seed(0)
torch.backends.cudnn.deterministic = True
torch.backends.cudnn.benchmark = False
np.random.seed(0)

我们如何解决这个问题?由于这发生在培训的 8 小时内,因此一些有根据的猜测在这里会非常有帮助!

谢谢!


更新:

注释掉这两torch.backends.cudnn...行没有用。CUDNN_STATUS_INTERNAL_ERROR仍然会发生,但要早得多,大约在第 300 集(585,000 步)左右。

torch.manual_seed(0)
#torch.backends.cudnn.deterministic = True
#torch.backends.cudnn.benchmark = False
np.random.seed(0)

系统

  • PyTorch 1.6.0.dev20200525
  • CUDA 10.2
  • cuDNN 7604
  • 蟒蛇 3.8
  • 视窗 10
  • 英伟达 1080 GPU

错误回溯

RuntimeError                              Traceback (most recent call last)
<ipython-input-18-f5bbb4fdfda5> in <module>
     57 
     58     while not done:
---> 59         action = agent.choose_action(state)
     60         state_, reward, done, info = env.step(action)
     61         score += reward

<ipython-input-11-5ad4dd57b5ad> in choose_action(self, state)
     58         if np.random.random() > self.epsilon:
     59             state = T.tensor([state], dtype=T.float).to(self.q_eval.device)
---> 60             actions = self.q_eval.forward(state)
     61             action = T.argmax(actions).item()
     62         else:

<ipython-input-10-94271a92f66e> in forward(self, state)
     20 
     21     def forward(self, state):
---> 22         lstm, hidden = self.lstm(state)
     23         actions = self.fc1(lstm[:,-1:].squeeze(1))
     24         return actions

~\AppData\Local\Continuum\anaconda3\envs\rl\lib\site-packages\torch\nn\modules\module.py in __call__(self, *input, **kwargs)
    575             result = self._slow_forward(*input, **kwargs)
    576         else:
--> 577             result = self.forward(*input, **kwargs)
    578         for hook in self._forward_hooks.values():
    579             hook_result = hook(self, input, result)

~\AppData\Local\Continuum\anaconda3\envs\rl\lib\site-packages\torch\nn\modules\rnn.py in forward(self, input, hx)
    571         self.check_forward_args(input, hx, batch_sizes)
    572         if batch_sizes is None:
--> 573             result = _VF.lstm(input, hx, self._flat_weights, self.bias, self.num_layers,
    574                               self.dropout, self.training, self.bidirectional, self.batch_first)
    575         else:

RuntimeError: cuDNN error: CUDNN_STATUS_INTERNAL_ERROR

更新:try... except在我的代码上尝试了发生此错误的位置,除此之外RuntimeError: cuDNN error: CUDNN_STATUS_INTERNAL_ERROR,我们还获得了该错误的第二次回溯RuntimeError: CUDA error: unspecified launch failure

During handling of the above exception, another exception occurred:

RuntimeError                              Traceback (most recent call last)
<ipython-input-4-e8f15cc8cf4f> in <module>
     61 
     62     while not done:
---> 63         action = agent.choose_action(state)
     64         state_, reward, done, info = env.step(action)
     65         score += reward

<ipython-input-3-1aae79080e99> in choose_action(self, state)
     58         if np.random.random() > self.epsilon:
     59             state = T.tensor([state], dtype=T.float).to(self.q_eval.device)
---> 60             actions = self.q_eval.forward(state)
     61             action = T.argmax(actions).item()
     62         else:

<ipython-input-2-6d22bb632c4c> in forward(self, state)
     25         except Exception as e:
     26             print('error in forward() with state:', state.shape, 'exception:', e)
---> 27             print('state:', state)
     28         actions = self.fc1(lstm[:,-1:].squeeze(1))
     29         return actions

~\AppData\Local\Continuum\anaconda3\envs\rl\lib\site-packages\torch\tensor.py in __repr__(self)
    152     def __repr__(self):
    153         # All strings are unicode in Python 3.
--> 154         return torch._tensor_str._str(self)
    155 
    156     def backward(self, gradient=None, retain_graph=None, create_graph=False):

~\AppData\Local\Continuum\anaconda3\envs\rl\lib\site-packages\torch\_tensor_str.py in _str(self)
    331                 tensor_str = _tensor_str(self.to_dense(), indent)
    332             else:
--> 333                 tensor_str = _tensor_str(self, indent)
    334 
    335     if self.layout != torch.strided:

~\AppData\Local\Continuum\anaconda3\envs\rl\lib\site-packages\torch\_tensor_str.py in _tensor_str(self, indent)
    227     if self.dtype is torch.float16 or self.dtype is torch.bfloat16:
    228         self = self.float()
--> 229     formatter = _Formatter(get_summarized_data(self) if summarize else self)
    230     return _tensor_str_with_formatter(self, indent, formatter, summarize)
    231 

~\AppData\Local\Continuum\anaconda3\envs\rl\lib\site-packages\torch\_tensor_str.py in __init__(self, tensor)
     99 
    100         else:
--> 101             nonzero_finite_vals = torch.masked_select(tensor_view, torch.isfinite(tensor_view) & tensor_view.ne(0))
    102 
    103             if nonzero_finite_vals.numel() == 0:

RuntimeError: CUDA error: unspecified launch failure
4

4 回答 4

11

众所周知,该错误RuntimeError: cuDNN error: CUDNN_STATUS_INTERNAL_ERROR很难调试,但令人惊讶的是,它通常是内存不足的问题。通常,您会收到内存不足错误,但根据它发生的位置,PyTorch 无法拦截错误,因此不会提供有意义的错误消息。

在您的情况下似乎可能存在内存问题,因为您正在使用 while 循环直到代理完成,这可能需要足够长的时间以致内存不足,这只是时间问题。一旦模型的参数与某个输入相结合,无法及时完成,这也可能发生得相当晚。

您可以通过限制允许操作的数量来避免这种情况,而不是希望参与者在合理的时间内完成。

您还需要注意的是,不要占用不必要的内存。一个常见的错误是在未来的迭代中继续计算过去状态的梯度。上次迭代的状态应该被认为是恒定的,因为当前动作不应该影响过去的动作,因此不需要梯度。这通常是通过从计算图中分离状态以进行下一次迭代来实现的,例如state = state_.detach()。也许您已经在这样做了,但是没有代码就无法分辨。

同样,如果您保留状态的历史记录,则应该将它们分离,更重要的是将它们放在 CPU 上,即history.append(state.detach().cpu()).

于 2020-05-28T20:26:31.503 回答
3

减少 num_workers 对我有用:D

于 2020-12-24T20:31:06.627 回答
3

遇到此错误以及其他 cudnn/gpu 相关错误的任何人都应尝试更改模型和 cpu 的输入,通常 cpu 运行时具有更好的错误报告,并使您能够调试问题。

以我的经验,大多数时候错误来自嵌入的无效索引。

于 2020-09-28T12:58:46.777 回答
1

我遇到了同样的问题,并通过将 cudatoolkit 降级到 10.1 版来解决它。所以尝试用 cudatoolkit 10.1 重新安装 pytorch。

conda install pytorch torchvision cudatoolkit=10.1
于 2020-08-09T09:29:32.810 回答