标签: scala apache-spark pyspark
我在Pyspark中开发了一个进程,但其中一部分依赖于在Scala中计算的子进程。
出于这个原因,我需要执行来自Pyspark的调用,该调用运行Scala脚本中实现的代码,然后,当此过程完成时,返回Pyspark进程。
有没有办法从Pyspark执行对Scala代码的调用?