如何使Spark Streaming计算单元测试中文件中的单词?

时间:2014-12-08 10:43:00

标签: java unit-testing apache-spark spark-streaming

我已经在Java中成功构建了一个基于HdfsCount example in Scala的非常简单的Spark Streaming应用程序。

当我将此应用程序提交给我的本地Spark时,它会等待将文件写入给定目录,当我创建该文件时,它会成功打印出单词数。我按Ctrl + C终止应用程序。

现在我已尝试为此功能创建一个非常基本的单元测试,但在测试中我无法打印相同的信息,即单词数。

我错过了什么?

下面是单元测试文件,之后我还包含了显示countWords方法的代码片段:

StarterAppTest.java

import com.google.common.io.Files;
import org.apache.spark.streaming.Duration;
import org.apache.spark.streaming.api.java.JavaDStream;
import org.apache.spark.streaming.api.java.JavaPairDStream;
import org.apache.spark.streaming.api.java.JavaStreamingContext;


import org.junit.*;

import java.io.*;

public class StarterAppTest {

  JavaStreamingContext ssc;
  File tempDir;

  @Before
  public void setUp() {
    ssc = new JavaStreamingContext("local", "test", new Duration(3000));
    tempDir = Files.createTempDir();
    tempDir.deleteOnExit();
  }

  @After
  public void tearDown() {
    ssc.stop();
    ssc = null;
  }

  @Test
  public void testInitialization() {
    Assert.assertNotNull(ssc.sc());
  }


  @Test
  public void testCountWords() {

    StarterApp starterApp = new StarterApp();

    try {
      JavaDStream<String> lines = ssc.textFileStream(tempDir.getAbsolutePath());
      JavaPairDStream<String, Integer> wordCounts = starterApp.countWords(lines);

      ssc.start();

      File tmpFile = new File(tempDir.getAbsolutePath(), "tmp.txt");
      PrintWriter writer = new PrintWriter(tmpFile, "UTF-8");
      writer.println("8-Dec-2014: Emre Emre Emre Ergin Ergin Ergin");
      writer.close();

      System.err.println("===== Word Counts =======");
      wordCounts.print();
      System.err.println("===== Word Counts =======");

    } catch (FileNotFoundException e) {
      e.printStackTrace();
    } catch (UnsupportedEncodingException e) {
      e.printStackTrace();
    }


    Assert.assertTrue(true);

  }

}

此测试编译并开始运行,Spark Streaming在控制台上打印了大量诊断消息,但对wordCounts.print()的调用不会打印任何内容,而在StarterApp.java本身则会打印。

我也尝试在ssc.awaitTermination();之后添加ssc.start()但在这方面没有任何改变。之后我还试图在这个Spark Streaming应用程序正在检查的目录中手动创建一个新文件,但这次它给出了一个错误。

为了完整性,下面是wordCounts方法:

public JavaPairDStream<String, Integer> countWords(JavaDStream<String> lines) {
    JavaDStream<String> words = lines.flatMap(new FlatMapFunction<String, String>() {
      @Override
      public Iterable<String> call(String x) { return Lists.newArrayList(SPACE.split(x)); }
    });

    JavaPairDStream<String, Integer> wordCounts = words.mapToPair(
            new PairFunction<String, String, Integer>() {
              @Override
              public Tuple2<String, Integer> call(String s) { return new Tuple2<>(s, 1); }
            }).reduceByKey((i1, i2) -> i1 + i2);

    return wordCounts;
  }

1 个答案:

答案 0 :(得分:2)

几个指针:

  • 为SparkStreaming上下文提供至少2个内核。 1表示Streaming,1表示Spark处理。 &#34;本地&#34; - &GT; &#34;本地[2]&#34;
  • 你的流媒体间隔时间是3000毫秒,所以在程序的某个地方你需要等待 - 至少那段时间才能获得输出。
  • Spark Streaming需要一些时间来设置侦听器。在ssc.start发出后立即创建该文件。不保证文件系统监听器已经到位。我在sleep(xx)
  • 之后做了一些ssc.start

在流媒体中,它是关于正确的时机。