我正在训练一个用 TF 构建的模型。在第一个时期,TF 比下一个时期慢 *100 倍,我看到如下消息:
I tensorflow/core/common_runtime/gpu/pool_allocator.cc:259] Raising pool_size_limit_ from 958 to 1053
正如这里所建议的,我尝试通过设置来使用 tcmalloc LD_PRELOAD="/usr/lib/libtcmalloc.so"
,但它没有帮助。
关于如何使第一个时代运行得更快的任何想法?