从Pyspark执行Scala代码

时间:2018-05-16 10:40:19

标签: scala apache-spark pyspark

我在Pyspark中开发了一个进程,但其中一部分依赖于在Scala中计算的子进程。

出于这个原因,我需要执行来自Pyspark的调用,该调用运行Scala脚本中实现的代码,然后,当此过程完成时,返回Pyspark进程。

有没有办法从Pyspark执行对Scala代码的调用?

0 个答案:

没有答案