我开发了一个map-reduce程序。我编写了自定义RecordReader
和InputFormat
类。
我正在使用MR Unit
和Mockito
进行mapper和reducer的单元测试。
我想知道如何对自定义RecordReader
和InputFormat
类进行单元测试?测试这些类的最佳方法是什么?
答案 0 :(得分:5)
感谢user7610
来自answer
的已编译且经过一定程度测试的示例代码版本import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.mapreduce.InputFormat;
import org.apache.hadoop.mapreduce.RecordReader;
import org.apache.hadoop.mapreduce.TaskAttemptContext;
import org.apache.hadoop.mapreduce.TaskAttemptID;
import org.apache.hadoop.mapreduce.lib.input.FileSplit;
import org.apache.hadoop.mapreduce.task.TaskAttemptContextImpl;
import org.apache.hadoop.util.ReflectionUtils;
import java.io.File;
Configuration conf = new Configuration(false);
conf.set("fs.default.name", "file:///");
File testFile = new File("path/to/file");
Path path = new Path(testFile.getAbsoluteFile().toURI());
FileSplit split = new FileSplit(path, 0, testFile.length(), null);
InputFormat inputFormat = ReflectionUtils.newInstance(MyInputFormat.class, conf);
TaskAttemptContext context = new TaskAttemptContextImpl(conf, new TaskAttemptID());
RecordReader reader = inputFormat.createRecordReader(split, context);
reader.initialize(split, context);
答案 1 :(得分:4)
您需要一个可用的测试文件(我假设您的输入格式扩展了FileInputFormat)。完成此操作后,您可以配置Configuration对象以使用LocalFileSystem(fs.default.name
或fs.defaultFS
设置为file:///)。最后,您需要定义一个FileSplit,其中包含flie的路径,偏移量和长度(文件的一部分)。
// DISCLAIMER: untested or compiled
Configuration conf = new Configuration(false);
conf.set("fs.default.name", "file:///");
File testFile = new File("path/to/file");
FileSplit split = new FileSplit(
testFile.getAbsoluteFile().toURI().toString(), 0,
testFile.getLength(), null);
MyInputFormat inputFormat = ReflectionUtils.newInstance(Myinputformat.class, conf);
RecordReader reader = inputFormat.createRecordReader(split,
new TaskAttemptContext(conf, new TaskAttemptID()));
现在,您可以断言从阅读器返回的记录与您期望的记录相匹配。您还应该测试(如果您的文件格式支持它)更改拆分的偏移量和长度,以及创建文件的压缩版本。