我们有许多需要合并的小文件。在Scalding中,您可以使用TextLine
将文件作为文本行进行读取。问题是我们每个文件获得1个映射器 ,但是我们希望组合多个文件,以便它们由1个映射器处理。
我知道我们需要将输入格式更改为CombineFileInputFormat
的实现,这可能涉及使用级联CombinedHfs
。我们无法弄清楚如何做到这一点,但是应该只是少数几行代码来定义我们自己的Scalding源,例如CombineTextLine
。
非常感谢能够提供代码的任何人。
作为一个附带问题,我们有一些在s3中的数据,如果给出的解决方案适用于s3文件会很好 - 我想这取决于CombineFileInputFormat
或CombinedHfs
是否适用于s3
答案 0 :(得分:9)
你在问题中得到了想法,所以这里有可能是你的解决方案。
创建您自己的输入格式,扩展 CombineFileInputFormat 并使用您自己的自定义 RecordReader 。我正在向您展示Java代码,但如果您愿意,可以轻松地将其转换为Scala。
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapred.FileSplit;
import org.apache.hadoop.mapred.InputSplit;
import org.apache.hadoop.mapred.JobConf;
import org.apache.hadoop.mapred.LineRecordReader;
import org.apache.hadoop.mapred.RecordReader;
import org.apache.hadoop.mapred.Reporter;
import org.apache.hadoop.mapred.lib.CombineFileInputFormat;
import org.apache.hadoop.mapred.lib.CombineFileRecordReader;
import org.apache.hadoop.mapred.lib.CombineFileSplit;
public class CombinedInputFormat<K, V> extends CombineFileInputFormat<K, V> {
public static class MyKeyValueLineRecordReader implements RecordReader<LongWritable,Text> {
private final RecordReader<LongWritable,Text> delegate;
public MyKeyValueLineRecordReader(CombineFileSplit split, Configuration conf, Reporter reporter, Integer idx) throws IOException {
FileSplit fileSplit = new FileSplit(split.getPath(idx), split.getOffset(idx), split.getLength(idx), split.getLocations());
delegate = new LineRecordReader(conf, fileSplit);
}
@Override
public boolean next(LongWritable key, Text value) throws IOException {
return delegate.next(key, value);
}
@Override
public LongWritable createKey() {
return delegate.createKey();
}
@Override
public Text createValue() {
return delegate.createValue();
}
@Override
public long getPos() throws IOException {
return delegate.getPos();
}
@Override
public void close() throws IOException {
delegate.close();
}
@Override
public float getProgress() throws IOException {
return delegate.getProgress();
}
}
@Override
public RecordReader getRecordReader(InputSplit split, JobConf job, Reporter reporter) throws IOException {
return new CombineFileRecordReader(job, (CombineFileSplit) split, reporter, (Class) MyKeyValueLineRecordReader.class);
}
}
然后你需要扩展TextLine类并使它使用你刚才定义的输入格式(从现在开始的Scala代码)。
import cascading.scheme.hadoop.TextLine
import cascading.flow.FlowProcess
import org.apache.hadoop.mapred.{OutputCollector, RecordReader, JobConf}
import cascading.tap.Tap
import com.twitter.scalding.{FixedPathSource, TextLineScheme}
import cascading.scheme.Scheme
class CombineFileTextLine extends TextLine{
override def sourceConfInit(flowProcess: FlowProcess[JobConf], tap: Tap[JobConf, RecordReader[_, _], OutputCollector[_, _]], conf: JobConf) {
super.sourceConfInit(flowProcess, tap, conf)
conf.setInputFormat(classOf[CombinedInputFormat[String, String]])
}
}
为您的组合输入创建一个方案。
trait CombineFileTextLineScheme extends TextLineScheme{
override def hdfsScheme = new CombineFileTextLine().asInstanceOf[Scheme[JobConf,RecordReader[_,_],OutputCollector[_,_],_,_]]
}
最后,创建你的源类:
case class CombineFileMultipleTextLine(p : String*) extends FixedPathSource(p :_*) with CombineFileTextLineScheme
如果您想使用单个路径而不是多个路径,则对源类的更改非常简单。
我希望有所帮助。
答案 1 :(得分:0)
这应该可以解决问题,是吗? - https://wiki.apache.org/hadoop/HowManyMapsAndReduces