BroadCast变量在Spark程序中发布

时间:2015-11-13 17:49:34

标签: java apache-spark rdd

在spark-java程序中,我需要读取一个配置文件并填充HashMap,我需要将其作为广播变量发布,以便它可以在所有数据节点上使用。

我需要在CustomInputFormat类中获取此广播变量的值,该类将在datanode中运行。我如何在CustomInputFormat类中指定从特定广播变量中获取值,因为广播变量是在我的驱动程序中声明的?

我正在添加一些代码来解释它:

在这个场景中,我在Driver Program中使用它,即变量在同一个类中使用:这里我可以使用Broadcat.value()方法

> final Broadcast<String[]> signPrefixes =
> sc.broadcast(loadCallSignTable());
>     JavaPairRDD<String, Integer> countryContactCounts = contactCounts.mapToPair(
>       new PairFunction<Tuple2<String, Integer>, String, Integer> (){
>         public Tuple2<String, Integer> call(Tuple2<String, Integer> callSignCount) {
>           String sign = callSignCount._1();
>           String country = lookupCountry(sign, signPrefixes.value());
>           return new Tuple2(country, callSignCount._2());
>         }}).reduceByKey(new SumInts());

在方案2中,我将在自定义输入格式类中使用广播变量:

驱动程序:

> final JavaSparkContext sc=    new
> JavaSparkContext(sConf.setAppName("ParserSpark").setMaster("yarn-cluster"));
> Broadcast<int[]> broadcastVar = sc.broadcast(new int[] {1, 2, 3});
> 
> JavaPairRDD<NullWritable, ArrayList<Record>> baseRDD =
> sc.newAPIHadoopFile(args[2], InputFormat.class, NullWritable.class,
> ArrayList.class, conf);

InputFormat.class

> public class InputFormat extends  FileInputFormat {
> 
>   @Override   public RecordReader<NullWritable, ArrayList<Record>> 
>   createRecordReader(InputSplit split,            TaskAttemptContext context)
> throws IOException,           InterruptedException{
>       //I want to get the Broadcast Variable Here -- How will I do it 
>       
>         RecordReader reader = new RecordReader();         reader.initialize(split, context);      return reader;  }   @Override
>   protected boolean isSplitable(JobContext context, Path file) {
>       return false;    } }

2 个答案:

答案 0 :(得分:1)

您可以在驱动程序w / val bcVariable = sc.broadcast(myVariableToBroadcast)上创建广播变量,稍后再访问bcVariable.value

答案 1 :(得分:1)

我最近遇到了这个问题。结果实际上相当简单(几个小时后再......一个哈!)

创建一个新的配置,设置您的变量,并将其传递给newAPIHadoopFile函数的稍微不同的实现。

从驱动程序(在此使用Scala):

val myConf = new Configuration();
    myConf.set("var1", v1)
    myConf.set("var2", v2)
    myConf.set("var3", v3)

val yourFile = sc.newAPIHadoopFile("yourFilePath", classOf[MyFileInputFormat],classOf[org.apache.hadoop.io.Text], classOf[org.apache.hadoop.io.DoubleWritable],myConf)

从您的InputFormat或InputReader ..或任何有上下文的地方(这次是Java)

context.getConfiguration().get("var1");

或者

job.getConfiguration().get("var2");