在正常操作中,可以向谷歌存储 API 提供加密密钥以加密给定的存储桶 /blob:https://cloud.google.com/compute/docs/disks/customer-supplied-encryption
这对于“即时”输出 spark/hadoop 作业是否可行?
假设我们想加密 spark write 的输出
df.write().format("json").save("gs:///somebucket/output");
在https://storage.googleapis.com/hadoop-conf/gcs-core-default.xml中,无法指定加密密钥。
这可能吗?