使用Py4J调用一个接受JavaSparkContext并返回JavaRDD <integer>的方法

时间:2015-05-01 12:33:54

标签: apache-spark py4j

我正在寻找一些帮助或示例代码,说明pyspark在spark本身之外调用用户编写的Java代码,它从Python获取一个spark上下文,然后返回一个用Java构建的RDD。

为了完整起见,我使用的是Py4J 0.81,Java 8,Python 2.7和spark 1.3.1

这是我用于Python的一半:

<div>
  <p>Your image text</p>
  <img src="http://placehold.it/200x100&text=pic1" alt="">
</div>
<div>
  <p>Your image text</p>
  <img src="http://placehold.it/200x100" alt="">
</div>

Java部分是:

import pyspark
sc = pyspark.SparkContext(master='local[4]',
                          appName='HelloWorld')

print "version", sc._jsc.version()

from py4j.java_gateway import JavaGateway
gateway = JavaGateway()

print gateway.entry_point.getRDDFromSC(sc._jsc)

在Python端运行产生:

import java.util.Map;
import java.util.List;
import java.util.ArrayList;

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.function.Function;
import org.apache.spark.api.java.function.Function2;

import py4j.GatewayServer;

public class HelloWorld 
{
   public JavaRDD<Integer> getRDDFromSC(JavaSparkContext jsc)
   {
      JavaRDD<Integer> result = null;
      if (jsc == null)
      {
         System.out.println("XXX Bad mojo XXX");

         return result;
      }

      int n = 10;
      List<Integer> l = new ArrayList<Integer>(n);
      for (int i = 0; i < n; i++) 
      {
         l.add(i);
      }

      result = jsc.parallelize(l);

      return result;
   }

   public static void main(String[] args)
   {
      HelloWorld app = new HelloWorld();
      GatewayServer server = new GatewayServer(app);
      server.start();
   }
}

Java方报道:

$ spark-1.3.1-bin-hadoop1/bin/spark-submit main.py
version 1.3.1
sc._jsc <class 'py4j.java_gateway.JavaObject'>
org.apache.spark.api.java.JavaSparkContext@50418105
None

问题似乎是我没有正确地将$ spark-1.3.1-bin-hadoop1/bin/spark-submit --class "HelloWorld" --master local[4] target/hello-world-1.0.jar XXX Bad mojo XXX 从Python传递给Java。当我使用python JavaSparkContext时,JavaRDD null发生同样的失败。

调用使用Python的spark的用户定义Java代码的正确方法是什么?

1 个答案:

答案 0 :(得分:0)

所以我在Sparkling Pandas工作的分支机构中得到了一个例子。分支机构住在https://github.com/holdenk/sparklingpandas/tree/add-kurtosis-support,PR位于https://github.com/sparklingpandas/sparklingpandas/pull/90

现在看起来你有两个不同的网关服务器似乎可能会导致一些问题,而你可以只使用现有的网关服务器并执行以下操作:

sc._jvm.what.ever.your.class.package.is.HelloWorld.getRDDFromSC(sc._jsc)

假设您也使用静态方法。