Tensorflow 推出了 XLA 编译器,该编译器编译了针对 LLVM 的后端 C++ tensorflow。我对 XLA 的理解是,只要有 LLVM -> 设备支持,它就是向支持通用加速设备迈出的一步。
Tensorflow lite 是最近发布的,取代了 Tensorflow Mobile,并且似乎是工作的重点是针对嵌入式和移动设备,明显关注嵌入式 DSP 和 GPU 作为这些环境中常见的可选处理器。Tensorflow lite 似乎将操作移交给 Android NNAPI(神经网络 API),并支持 tensorflow OP 的子集。
所以这就引出了一个问题:Google 将朝着哪个方向支持非 CUDA 设备?XLA 的用例是否超出了我的描述?