0

我是训练 pytorch 模型和 GPU 的新手,我曾尝试在 Windows 上对其进行训练,但始终使用专用内存(10GB)并且不使用共享内存我尝试使用多处理来提高其性能,但我一直收到错误:TypeError:无法腌制“模块”对象

解决方案通常是在加载数据时使用 num_wrokers =0 我实际上在加载数据后使用多处理并且只需要利用共享内存

我正在重新训练 meta-sr 扬声器验证码,特别是训练文件: https ://github.com/seongmin-kye/meta-SR/blob/b4c1ea1728e33f7bbf7015c38f508f24594f3f88/train.py

我已将第 92 行编辑为使用共享 GPU 内存,如下所示 train(train_generator, model, objective, optimizer, n_episode, log_dir, scheduler)

    model.share_memory()
    p = mp.Process(target=train, args=(train_generator,model,objective, optimizer, n_episode, log_dir, scheduler))
    p.num_workers=0
    p.start()
    p.join()

如果需要添加更多信息,请告诉我提前谢谢

4

0 回答 0