我有几个 CSV 文件,标题始终是文件的第一行。将该行作为 Pig 中的字符串从 CSV 文件中取出的最佳方法是什么?不能使用 sed、awk 等进行预处理。
我尝试使用常规 PigStorage 和 Piggy bank CsvLoader 加载文件,但我不清楚如何获得第一行,如果有的话。
如果需要的话,我愿意编写 UDF。
我有几个 CSV 文件,标题始终是文件的第一行。将该行作为 Pig 中的字符串从 CSV 文件中取出的最佳方法是什么?不能使用 sed、awk 等进行预处理。
我尝试使用常规 PigStorage 和 Piggy bank CsvLoader 加载文件,但我不清楚如何获得第一行,如果有的话。
如果需要的话,我愿意编写 UDF。
如果您的 CSV 符合 Excel 2007 的 CSV 约定,您可以使用 Piggybank http://svn.apache.org/viewvc/pig/trunk/contrib/piggybank/java/src/main/java/org/apache/中已有的加载程序猪/piggybank/storage/CSVExcelStorage.java?view=markup
它有一个跳过 CSV 标头的选项SKIP_INPUT_HEADER
免责声明:我对 Java 不是很好。
您将需要一个 UDF。我不确定您到底要什么,但这个 UDF 将采用一系列 CSV 文件并将它们转换为地图,其中的键是文件顶部的值。希望这应该足够一个骨架,以便您可以将其更改为您想要的。
我在远程和本地完成的几个测试表明这将起作用。
package myudfs;
import java.io.IOException;
import org.apache.pig.LoadFunc;
import java.util.Map;
import java.util.HashMap;
import java.util.ArrayList;
import org.apache.pig.data.Tuple;
import org.apache.pig.data.TupleFactory;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.InputFormat;
import org.apache.hadoop.mapreduce.RecordReader;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
import org.apache.pig.PigException;
import org.apache.pig.backend.executionengine.ExecException;
import org.apache.pig.backend.hadoop.executionengine.mapReduceLayer.PigSplit;
public class ExampleCSVLoader extends LoadFunc {
protected RecordReader in = null;
private String fieldDel = "" + '\t';
private Map<String, String> outputMap = null;
private TupleFactory mTupleFactory = TupleFactory.getInstance();
// This stores the fields that are defined in the first line of the file
private ArrayList<Object> topfields = null;
public ExampleCSVLoader() {}
public ExampleCSVLoader(String delimiter) {
this();
this.fieldDel = delimiter;
}
@Override
public Tuple getNext() throws IOException {
try {
boolean notDone = in.nextKeyValue();
if (!notDone) {
outputMap = null;
topfields = null;
return null;
}
String value = in.getCurrentValue().toString();
String[] values = value.split(fieldDel);
Tuple t = mTupleFactory.newTuple(1);
ArrayList<Object> tf = new ArrayList<Object>();
int pos = 0;
for (int i = 0; i < values.length; i++) {
if (topfields == null) {
tf.add(values[i]);
} else {
readField(values[i], pos);
pos = pos + 1;
}
}
if (topfields == null) {
topfields = tf;
t = mTupleFactory.newTuple();
} else {
t.set(0, outputMap);
}
outputMap = null;
return t;
} catch (InterruptedException e) {
int errCode = 6018;
String errMsg = "Error while reading input";
throw new ExecException(errMsg, errCode,
PigException.REMOTE_ENVIRONMENT, e);
}
}
// Applies foo to the appropriate value in topfields
private void readField(String foo, int pos) {
if (outputMap == null) {
outputMap = new HashMap<String, String>();
}
outputMap.put((String) topfields.get(pos), foo);
}
@Override
public InputFormat getInputFormat() {
return new TextInputFormat();
}
@Override
public void prepareToRead(RecordReader reader, PigSplit split) {
in = reader;
}
@Override
public void setLocation(String location, Job job)
throws IOException {
FileInputFormat.setInputPaths(job, location);
}
}
加载目录的示例输出:
csv1.in csv2.in
------- ---------
A|B|C D|E|F
Hello|This|is PLEASE|WORK|FOO
FOO|BAR|BING OR|EVERYTHING|WILL
BANG|BOSH BE|FOR|NAUGHT
产生这个输出:
A: {M: map[]}
()
([D#PLEASE,E#WORK,F#FOO])
([D#OR,E#EVERYTHING,F#WILL])
([D#BE,E#FOR,F#NAUGHT])
()
([A#Hello,B#This,C#is])
([A#FOO,B#BAR,C#BING])
([A#BANG,B#BOSH])
()
s 是文件的顶行。getNext()
要求我们返回一些东西,否则文件将停止处理。因此它们返回一个空模式。