我正在编写一个自定义的 Tensorflow 操作。我需要将自定义数据结构(在 CPU 上构建)发送到 GPU 以在 CUDA 内核中使用。但是,据我了解,使用 Tensorflow 管理内存,只能动态分配张量,对吗?如果是这样:
a) 如何在 CPU 上分配一个临时张量,以便我可以从自定义数据结构中写入数据?
b) 我怎样才能将此张量存储到 GPU 以与 CUDA 内核一起使用?
我看到allocate_temp
使用AllocatorAttributes
但文档不存在。
基本上我需要和 的 Caffe 等价mutable_cpu_data
物mutable_gpu_data
。