我是云初学者,我想限制我对项目中dataproc cluster
给定gcs buckets
的访问权限。
可以说我创建了一个service account
命名为'data-proc-service-account@my-cloud-project.iam.gserviceaccount.com'
,然后我创建了一个 dataproc 集群并为其分配了服务帐户。
现在我创建了两个名为的 gcs 存储桶
'gs://my-test-bucket/spark-input-files/'
'gs://my-test-bucket/spark-output-files/'
这些存储桶包含一些输入文件,这些文件需要由运行在我的 dataproc 集群上的 spark 作业访问,并且还充当我的 spark 作业可以写入一些输出文件的位置。
我想我必须去编辑我的存储桶权限,如给定链接所示。 编辑存储桶权限
我希望我的 spark 作业只能从这个特定的存储桶中读取文件'gs://my-test-bucket/spark-input-files/'
。如果他们正在写入 gcs 存储桶,他们只能写入''gs://my-test-bucket/spark-output-files/'
这里的问题是:(很可能是与SRE资源相关的问题)
需要
data-proc-service-account@my-cloud-project.iam.gserviceaccount.com
在IAM
控制台页面上将所有 IAM 权限添加到我的数据处理服务帐户中。
以及需要为给定的特定存储桶添加哪些所有读/写权限,我认为必须通过添加成员并为其分配正确的权限来配置。(如上面提到的链接所示)
我是否需要将我的数据处理服务帐户添加为成员,并且可以在这两个角色下面添加。这行得通吗?
Storage Object Creator for bucket 'gs://my-test-bucket/spark-output-files/
Storage Object Viewer for bucket 'gs://my-test-bucket/spark-input-files/'
如果我错过了任何事情或者可以做更好的事情,也请告诉我。