是否有计划让 Cloud Dataflow 将数据写入 Cloud Bigtable?甚至可能吗?
添加一个自定义Sink
来处理 IO 可能是一个干净的选择。
作为一种解决方法,我尝试在一个简单的DoFn
. 在步骤中打开连接和表并在 中startBundle
关闭它们finishBundle
。
此外,我添加bigtable-hbase jar (0.1.5)
到类路径和修改后的版本hbase-site.xml
到被拾取的资源文件夹。
在云中运行时,出现NPN/ALPN extensions not installed
异常。
在本地运行时,我收到一个异常,指出ComputeEngineCredentials cannot find the metadata server.
尽管已将 设置GOOGLE_APPLICATION_CREDENTIALS
为生成的 json 密钥文件。
任何帮助将不胜感激。