2

根据文档,可以选择使用 6.2 及更高版本中的现有 Dataproc 集群。

我们使用 Cloud Data Fusion 6.2.0 ,但当我们尝试创建新的计算配置文件时 ,现有的 Dataproc不会出现。没有现有的 dataproc 选项

我们做错了什么?为什么所描述的选项不显示?我们需要做一些额外的配置吗?

更新 1

当我选择 Dataproc 时,我看到以下内容: 在此处输入图像描述 在此处输入图像描述

更新 2

当我们尝试使用Remote Hadoop Provisioner时,我们在 /logs/program.log 文件中收到以下错误消息。SSH 连接成功,因为 run-id 文件夹在那里。


2021-06-15 09:40:37,617 - ERROR [main:o.a.z.s.NIOServerCnxnFactory@44] - Thread Thread[main,5,main] died
java.lang.reflect.InvocationTargetException: null
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) ~[na:1.8.0_282]
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) ~[na:1.8.0_282]
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) ~[na:1.8.0_282]
        at java.lang.reflect.Method.invoke(Method.java:498) ~[na:1.8.0_282]
        at io.cdap.cdap.internal.app.runtime.distributed.remote.RemoteLauncher.main(RemoteLauncher.java:73) ~[launcher.jar:na]
Caused by: java.lang.NoSuchMethodError: com.google.common.base.Preconditions.checkArgument(ZLjava/lang/String;Ljava/lang/Object;)V
        at org.apache.hadoop.conf.Configuration.set(Configuration.java:1357) ~[hadoop-common-3.2.2.jar:na]
        at org.apache.hadoop.conf.Configuration.set(Configuration.java:1338) ~[hadoop-common-3.2.2.jar:na]
        at io.cdap.cdap.common.conf.CConfigurationUtil.copyTxProperties(CConfigurationUtil.java:100) ~[na:na]
        at io.cdap.cdap.common.guice.ConfigModule.<init>(ConfigModule.java:62) ~[na:na]
        at io.cdap.cdap.common.guice.ConfigModule.<init>(ConfigModule.java:49) ~[na:na]
        at io.cdap.cdap.internal.app.runtime.distributed.remote.RemoteExecutionJobMain.initialize(RemoteExecutionJobMain.java:117) ~[na:na]
        at io.cdap.cdap.internal.app.runtime.distributed.remote.RemoteExecutionJobMain.doMain(RemoteExecutionJobMain.java:98) ~[na:na]
        at io.cdap.cdap.internal.app.runtime.distributed.remote.RemoteExecutionJobMain.main(RemoteExecutionJobMain.java:73) ~[na:na]
        ... 5 common frames omitted
4

2 回答 2

1

对于 6.2.0 ,“Remote Hadoop Provisioner”是用于现有 dataproc 集群的正确选项。您遇到的卡住问题是由 API 激活未能将必要角色分配给 Dataproc 特定服务帐户的罕见情况引起的。只需在您的项目中授予以下服务帐户“Dataproc 服务代理”角色即可解决此问题:

service-${项目编号}@dataproc-accounts.iam.gserviceaccount.com

于 2021-06-14T04:56:57.447 回答
0

我无法准确重现该场景,因为从头开始创建 CDF 实例时,我能够选择 Cloud Data Fusion 6.2.3 作为类似的更接近的版本。

我可以确认,在 6.2.3 版本中,您可以选择现有的 Dataproc 集群。因此,我建议您至少升级到该版本。请按照此文档以安全的方式进行操作。

作为替代方案,这里有一种配置 Cloud Data Fusion 管道以针对现有集群运行的方法。此功能仅在 Cloud Data Fusion 的企业版上可用。

于 2021-06-04T09:22:30.843 回答