2

是否有人有使用 HBaseStorage 在 Dataproc 上通过 Pig 从 Bigtable 加载数据的经验或成功?

这是我正在尝试运行的一个非常简单的 Pig 脚本。它失败并显示一个错误,表明它找不到 BigtableConnection 类,我想知道我可能缺少什么设置才能成功从 Bigtable 加载数据。

raw = LOAD 'hbase://my_hbase_table'
       USING org.apache.pig.backend.hadoop.hbase.HBaseStorage(
       'cf:*', '-minTimestamp 1490104800000 -maxTimestamp 1490105100000 -loadKey true -limit 5')
       AS (key:chararray, data);

DUMP raw;

我设置集群的步骤:

  1. 推出 Bigtable 集群(my_bt);创建并填充 my_hbase_table
  2. 通过 cloud.google.com Cloud Dataproc 控制台启动了 Dataproc 集群 (my_dp)
  3. 按照https://cloud.google.com/bigtable/docs/installing-hbase-shell上的说明在 Dataproc 主服务器 (/opt/hbase-1.2.1) 上安装 HBase shell
  4. hbase-site.xml为 my_bt 和 BigtableConnection 类添加了属性
  5. 创建的文件t.pig包含上面列出的内容
  6. 通过命令调用 Pig:gcloud beta dataproc jobs submit pig --cluster my_dp --file t.pig --jars /opt/hbase-1.2.1/lib/bigtable/bigtable-hbase-1.2-0.9.5.1.jar
  7. 出现以下错误,指示未找到 BigtableConnection 类:

2017-03-21 15:30:48,029 [JobControl] 错误 org.apache.hadoop.hbase.mapreduce.TableInputFormat - java.io.IOException: java.lang.ClassNotFoundException: com.google.cloud.bigtable.hbase1_2.BigtableConnection

4

1 回答 1

3

诀窍是让所有依赖项都依赖于 pig 的类路径。使用 Solomon 指向的 jar,我创建了以下初始化操作,下载两个 jar,bigtable mapreduce jar 和 netty-tcnative-boringssl,并设置 pig 类路径。

#!/bin/bash
# Initialization action to set up pig for use with cloud bigtable
mkdir -p /opt/pig/lib/

curl http://repo1.maven.org/maven2/io/netty/netty-tcnative-boringssl-static/1.1.33.Fork19/netty-tcnative-boringssl-static-1.1.33.Fork19.jar \
    -f -o /opt/pig/lib/netty-tcnative-boringssl-static-1.1.33.Fork19.jar

curl http://repo1.maven.org/maven2/com/google/cloud/bigtable/bigtable-hbase-mapreduce/0.9.5.1/bigtable-hbase-mapreduce-0.9.5.1-shaded.jar \
    -f -o /opt/pig/lib/bigtable-hbase-mapreduce-0.9.5.1-shaded.jar

cat >>/etc/pig/conf/pig-env.sh <<EOF
#!/bin/bash

for f in /opt/pig/lib/*.jar; do
  if [ -z "\${PIG_CLASSPATH}" ]; then
    export PIG_CLASSPATH="\${f}"
  else
    export PIG_CLASSPATH="\${PIG_CLASSPATH}:\${f}"
  fi  
done
EOF

然后,您可以通过通常的方式传入 bigtable 配置:

  • 通过 hbase-site.xml
  • 提交作业时指定属性:

    PROPERTIES='hbase.client.connection.impl='
    PROPERTIES+='com.google.cloud.bigtable.hbase1_2.BigtableConnection'
    PROPERTIES+=',google.bigtable.instance.id=MY_INSTANCE'
    PROPERTIES+=',google.bigtable.project.id=MY_PROJECT'
    
    gcloud dataproc jobs submit pig --cluster MY_DATAPROC_CLUSTER \
        --properties="${PROPERTIES}"  \
        -e "f =  LOAD 'hbase://MY_TABLE' 
             USING org.apache.pig.backend.hadoop.hbase.HBaseStorage('cf:*','-loadKey true') 
             AS (key:chararray, data); 
        DUMP f;"
    
于 2017-03-23T01:33:33.047 回答