在将数据加载到 Hive 表之前,我必须在平面文件中格式化数据。
CF32|4711|00010101Z| +34.883| 98562AS1D |N8594ãä| 00 | 2
该文件是管道分隔的,我需要在平面文件的不同列上应用不同的清理和格式化功能。我对 Clean_Text、Format_Date、Format_TimeStamp、Format_Integer 等有多种功能。
我的想法是将模式作为构造函数传递给我的 UDF,并在 pig 中的平面文件上调用不同的函数。
A = LOAD 'call_detail_records' USING org.apache.hcatalog.pig.HCatLoader();
DESCRIBE A;
REGISTER ZPigUdfs.jar;
DEFINE DFormat com.zna.pig.udf.DataColumnFormatter(A);
B = FOREACH A GENERATE DFormat($0);
DUMP B;
但是我怎样才能通过模式?DUMP A 实际上转储了整个表,但我只需要元数据。我当前的 UDF 伪代码看起来像
公共类 DataColumnFormatter 扩展 EvalFunc {
private Tuple schema;
public DataColumnFormatter(Tuple schema) {
this.schema = schema;
}
@Override
public String exec(Tuple inputTuple) throws IOException {
if (inputTuple != null && inputTuple.size() > 0) {
String inpString = inputTuple.get(0).toString();
System.out.println(inpString);
System.out.println(schema);
/**
* Logic for splitting the string as pipe and apply functions based
* on positions of schema if(schema[1] -> date ){
*
* formatDate(input) }else if(schema[1] -> INT ){
*
* formatInt(input); }
*
*/
}
return null;
}
}
如何在 PIG UDF 中获取架构,或者有没有其他方法可以实现这一点。
提前致谢。