由于我没有足够的 GPU,我想在 spark 上部署一个大模型(例如 bert)来进行推理。现在我有两个问题。
- 我将模型导出为 pb 格式并使用 SavedModelBundle 接口加载模型。
SavedModelBundle bundle=SavedModelBundle.load("E:\\pb\\1561992264","serve");
但是,我找不到为 hdfs 文件系统路径加载 pb 模型的方法
- spark 环境的 Glibc 版本与我训练模型的 tensorflow 版本不兼容。无论如何要绕过这个?
我不确定这是在 spark 上提供 tensorflow 模型的好方法。任何其他建议表示赞赏!